La tuerie de masse perpétrée samedi 14 mai à Buffalo a été retransmise en direct sur Twitch. L’État de New York a ouvert une enquête pour déterminer le rôle joué par les réseaux sociaux dans l’attaque.
Une tuerie raciste orchestrée par un suprémaciste blanc a fait 10 morts au sein de la communauté noire à Buffalo (État de New York) samedi dernier.
Une tuerie diffusée en live
Une attaque que le tueur a retransmis en direct sur la plateforme Twitch, propriété d’Amazon. Avant de passer à l’acte, le tueur de masse a également publié un manifeste relayé sur des forums en ligne. En conséquence de quoi, la gouverneure démocrate Kathy Hochul, a demandé l’ouverture d’une enquête afin de déterminer le rôle joué par les réseaux sociaux dans cette macabre affaire. L'enquête doit examiner dans quelle mesure les plateformes ont été « utilisées pour diffuser, promouvoir ou planifier l'événement », a déclaré le bureau du procureur général.
L'enquête concerne également les forums en ligne 4chan, 8chan et Discord où le tireur aurait publié des informations sur ses plans, puis redirigé les utilisateurs vers le livestream sur Twitch. « Dans des écrits qui lui ont été attribués, le tireur présumé de Buffalo avait décrit la possibilité de pouvoir diffuser son attaque en direct comme un facteur de "motivation". », indique l’AFP.
« L'attaque terroriste à Buffalo a une fois de plus révélé la profondeur et le danger des forums en ligne qui propagent et promeuvent la haine. » a déclaré la procureure générale Letitia James. Et d’ajouter : « le fait qu'un individu puisse publier des plans détaillés pour commettre un tel acte de haine sans conséquence, puis le diffuser pour que le monde le voie est effrayant et insondable ».
Manque de réactivité
Les plateformes ont pourtant mis en place des systèmes censés traquer ce type de contenus et s’aident d’intelligence artificielle et d'équipes dédiées depuis plusieurs années déjà. Grâce à quoi il n’aura fallu que 2 minutes à Twitch pour supprimer le flux de la tuerie de Buffalo. « C'est un temps de réponse très élevé compte tenu des défis de la modération de contenu en direct, et cela montre de bons progrès. », s'est défendu Twitch dans un communiqué de presse envoyé au Time. A titre de comparaison, Facebook a mis 17 minutes pour stopper la diffusion de l’attaque des mosquées à Christchurch (Nouvelle-Zélande), qui ont fait 51 morts en 2019. Plus tard la même année, Twitch avait mis 35 minutes avant de déconnecter l’auteur de l’attaque d’une synagogue à Halle (Allemagne) qui avait fait deux morts.
Mais voilà, si le flux sur Steam a effectivement été supprimé moins de deux minutes après le début de la diffusion, ce court laps de temps a suffi à des internautes pour dupliquer la vidéo et les diffuser sur d'autres sites. Une copie de la séquence a été visionnée plus de trois millions de fois avant d’être supprimée, rapporte la BBC. Des versions de la vidéo ont même été modifiées - recadrées – afin d'échapper aux systèmes de suppression automatisés des platesformes.
Collaboration entre les plateformes
Depuis Christchurch, les plateformes communiquent entre elles et partagent les données d’identification et des versions encodées de ces vidéos, afin de les repérer et les supprimer plus rapidement. Mais malgré l'investissement technique et humain des grandes plateformes, empêcher la diffusion d'un acte violent en direct ne serait-ce que quelques secondes reste très difficile.
Meta (Facebook) et Twitter ont déclaré que les vidéos ont été signalées dans le cadre de leurs politiques sur la violence et l'extrémisme et qu’ils supprimeraient toutes les copies de leurs plateformes. C'est maintenant un sordide jeu du chat et de la souris qui s'engage avec les utilisateurs.