Les plateformes de médias sociaux suppriment des preuves potentielles de crimes de guerre

HRW - Human Rights Watch - 11/09/2020 13:45:00


Ces plateformes devraient archiver les contenus considérés comme dangereux et retirés des réseaux en ligne.


La plateforme de vidéos You Tube, contrôlée par Google, a mis en place une « technologie de pointe d'apprentissage automatique » afin d'identifier tout contenu pouvant être perçu comme « violent ou explicite », « haineux et injurieux », « incitation à la violence et à l'extrémisme violent » ou « spam, message trompeur ou fraude », afin de retirer automatiquement de tels contenus. © 2017 Jaap Arriens/NurPhoto via Getty Images
La plateforme de vidéos You Tube, contrôlée par Google, a mis en place une « technologie de pointe d'apprentissage automatique » afin d'identifier tout contenu pouvant être perçu comme « violent ou explicite », « haineux et injurieux », « incitation à la violence et à l'extrémisme violent » ou « spam, message trompeur ou fraude », afin de retirer automatiquement de tels contenus. © 2017 Jaap Arriens/NurPhoto via Getty Images
Les plateformes de médias sociaux suppriment des contenus considérés comme ayant une dimension terroriste, violemment extrémiste ou haineuse d'une manière qui empêche leur éventuelle utilisation lors d'enquêtes sur des actes criminels graves, notamment des crimes de guerre, a déclaré Human Rights Watch dans un rapport publié aujourd'hui. Alors qu'il est compréhensible que ces plateformes retirent des contenus qui incitent à la violence ou la prônent, elles devraient les archiver afin de permettre l'éventuelle traduction en justice de leurs auteurs.


Le rapport de 42 pages, intitulé « "Video Unavailable": Social Media Platforms Remove Evidence of War Crimes » (« "Vidéo non disponible" : Les plateformes de médias sociaux suppriment des preuves de crimes de guerre »), recommande aux plateformes de médias sociaux et à d'autres organismes concernés d'élaborer conjointement un mécanisme indépendant de préservation d'éventuelles preuves d'actes criminels graves. Les plateformes devraient s'assurer que le contenu soit disponible pour soutenir les enquêtes nationales et internationales ainsi que les recherches menées par des organisations non gouvernementales, des journalistes et des chercheurs. Depuis 2017, des organisations de défense des droits humains appellent les entreprises gérant des médias sociaux à améliorer la transparence et la responsabilité dans les cas de retraits de contenus.

« Certains contenus que retirent Facebook, YouTube, et d'autres plateformes ont une valeur essentielle et irremplaçable comme preuves de graves violations de droits humains », a déclaré Belkis Wille, chercheuse senior auprès de la division Crises et conflits à Human Rights Watch. « Sachant que les procureurs, les chercheurs et les journalistes s'appuient de plus en plus sur les photographies et les vidéos publiées publiquement sur les médias sociaux, ces plateformes devraient en faire plus pour leur garantir l'accès à des preuves éventuelles d'actes criminels graves. »

Le contenu des médias sociaux, spécialement les photographies et les vidéos publiées par les auteurs, les victimes et les témoins de violence est devenu de plus en plus essentiel à certaines poursuites pour crimes de guerre et d'autres actes criminels graves, notamment à la Cour pénale internationale (CPI) et à des procès nationaux en Europe. Ce contenu aide aussi les médias et la société civile à apporter des preuves d'atrocités et autres violences comme les attaques à l'arme chimique en Syrie, la répression par les forces de sécurité au Soudan et les violences policières aux États-Unis.

Pour rédiger ce rapport, Human Rights Watch s'est entretenu avec sept personnes qui travaillent dans des organisations de la société civile, trois juristes, deux archivistes, un statisticien, deux journalistes, un ancien procureur ayant exercé dans les tribunaux internationaux, cinq personnes au sein d'enquêtes mandatées au niveau international, trois agents d'exécution de la loi, un responsable de l'Union européenne et un membre du Parlement européen.

Human Rights Watch a aussi examiné les contenus de Facebook, Twitter, et YouTube cités dans ses articles destinés à soutenir ses allégations de violence depuis 2007. Sur les 5 396 éléments de contenu cités en référence dans 4 739 articles, dont la plupart ont été publiés au cours des cinq dernières années, elle a constaté que 619 (soit 11 pour cent) d' entre eux avaient été retirés.

Dans des lettres envoyées à Facebook, Twitter et Google en mai 2020, Human Rights Watch a indiqué les liens aux contenus retirés et demandé à ces sociétés si Human Rights Watch pourrait à nouveau y accéder à des fins d'archivage, demande qui ne lui a pas été accordée.

Au cours des dernières années, les entreprises de médias sociaux, notamment Facebook, YouTube et Twitter ont intensifié leurs efforts pour mettre hors ligne les publications qui selon eux, enfreignent leurs règles et les orientations communautaires ou normes figurant dans leurs conditions de service. Cela comprend tout contenu qu'ils estiment terroriste ou violemment extrémiste, les discours haineux, la haine organisée, les comportements haineux et les menaces violentes.

Les sociétés retirent les publications que signalent les utilisateurs et les contenus qu'examinent des modérateurs. Mais ils utilisent aussi de plus en plus fréquemment, des algorithmes pour identifier et retirer les publications fautives, si rapidement parfois, qu'aucun utilisateur n'en voit le contenu avant son retrait. Les pouvoirs publics ont dans l'ensemble encouragé cette tendance en demandant aux sociétés de retirer les contenus dangereux aussi rapidement que possible. On ne sait pas très bien si les sociétés de médias sociaux stockent les divers types de contenus qu'elles retirent ou dont elles empêchent la publication, et dans ce cas, pour combien de temps.


Les sociétés ont raison de mettre rapidement hors ligne des contenus qui pourraient inciter à la violence ou nuire d'autre manière à des personnes, ou mettre en danger la sécurité nationale ou l'ordre public tant que les critères qu'elles appliquent satisfont aux droits humains internationaux et aux principes d'application régulière de la loi. Le retrait permanent de ce contenu peut néanmoins les rendre inaccessibles et entraver les efforts de responsabilité pénale.

Il n'existe encore aucun mécanisme permettant de préserver ou d'archiver les retraits des médias sociaux susceptibles de fournir des preuves essentielles de violence, encore moins d'en garantir l'accès par ceux qui enquêtent sur les crimes internationaux. Dans la plupart des pays, les responsables nationaux de l'application de la loi peuvent contraindre les sociétés de médias sociaux à remettre le contenu par le biais de mandats, d'assignations à témoigner et d'ordonnances de tribunaux, mais les enquêteurs internationaux ont une capacité limitée à accéder au contenu car ils ne disposent pas de pouvoirs d'application de la loi et de statuts.

Des organisations indépendantes et des journalistes ont joué un rôle essentiel en apportant des preuves de violences commises dans le monde, souvent en l'absence d'enquêtes menées par des institutions judiciaires. Dans certains cas, ces preuves ont déclenché des procédures judiciaires. Elles n'ont cependant pas non plus la capacité d'accéder au contenu retiré, et tout comme les enquêteurs officiels, ne seront pas avisées des documents que retire l'intelligence artificielle avant que quiconque ne les voit.

Un agent d'exécution de la loi européen qui enquêtait sur les crimes de guerre a déclaré à Human Rights Watch que « le contenu retiré fait désormais partie de ce que je rencontre quotidiennement au travail. Je suis constamment confronté à des preuves susceptibles d'être essentielles, qui ne me sont plus accessibles. »

Faire répondre des personnes coupables d'actes criminels graves peut décourager des violations ultérieures et favoriser le respect de la légalité, a affirmé Human Rights Watch. L'intervention de la justice pénale peut aussi aider à redonner leur dignité aux victimes en reconnaissant leurs souffrances et en aidant à créer un document historique qui protège contre le négationnisme de ceux qui nient la réalité de ces violences. Le droit international oblige les pays à poursuivre en justice le génocide, les crimes contre l'humanité et les crimes de guerre.

Il est indispensable que les sociétés de médias sociaux et tous les intervenants concernés élaborent en commun un plan en vue d'établir un mécanisme indépendant ayant un rôle de liaison avec les plateformes de médias sociaux et de préservation de ce contenu. L'archive en question doit être chargée de trier et de donner accès à ce contenu à des fins de recherche et d'enquête conformément aux normes de droits humains et de confidentialité des données.

Parallèlement à ces efforts, les plateformes de médias sociaux doivent être plus transparentes concernant leurs méthodes existantes de retrait, notamment par l'utilisation croissante d'algorithmes, a déclaré Human Rights Watch. Elles doivent faire en sorte que leurs propres mécanismes ne soient pas exagérément larges ou biaisés et de donner des possibilités significatives de faire appel du retrait de contenus.

« Nous sommes conscients que la tâche à laquelle sont confrontés les médias sociaux n'est pas facile, notamment celle de trouver un juste milieu entre la protection de la liberté d'expression et de la confidentialité et le retrait de contenus qui peuvent occasionner de graves préjudices » a conclu Belkis Wille. « Des consultations qui tireraient parti de l'expérience d'autres archives historiques pourraient conduire à une véritable avancée et aider les plateformes à protéger la liberté d'expression et la sécurité du public tout en veillant à ne pas entraver la responsabilisation. »