Après Twitter et Facebook, YouTube a annoncé jeudi le durcissement de sa politique contre la propagation de théories du complot haineuses ou nuisibles, en particulier QAnon, une mouvance conspirationniste pro-Trump.
L’élection américaine en ligne de mire
YouTube a annoncé jeudi le durcissement de sa politique contre la propagation des vidéos complotistes. La plateforme interdit désormais « les contenus qui ciblent des individus ou groupes de personnes avec des théories du complot qui ont été utilisées pour justifier des violences dans la vie réelle ». Sont notamment visées les vidéos liées à QAnon. Ce mouvement d’extrême droite créé en 2017, défend l’idée selon laquelle le président américain Donald Trump mène une guerre secrète contre une secte libérale mondiale composée de pédophiles satanistes. Largement répandu aux États-Unis, il a été classé comme « potentielle menace terroriste » par le FBI. YouTube craint que ses adhérents jouent un rôle déterminant dans l’élection présidentielle américaine, qui se tient le 3 novembre prochain, ou provoquent des violences.
À titre d’exemple de théories conspirationnistes qui peuvent dégénérer dans le monde réel, la plateforme mentionne le « Pizzagate ». Lors de la campagne électorale de 2016, des internautes avaient affirmé sur le forum de discussion anonyme 4chan que la candidate démocrate Hillary Clinton était impliquée dans un réseau pédophile établi dans une pizzeria de Washington. Convaincu par cette fausse information, un homme avait attaqué au fusil d’assaut ce restaurant, sans faire heureusement de victimes.
Suppression des vidéos liant Covid-19 et 5G
YouTube dit avoir déjà retiré des dizaines de milliers de vidéos liées à QAnon et interdit des centaines de chaînes, notamment pour avoir « menacé de recourir à la violence » ou « nié l’existence d’événements violents majeurs », comme l’Holocauste. Aussi, en avril dernier, le réseau social avait annoncé qu’il supprimerait les vidéos suggérant un lien entre Covid-19 et 5G.
Plus récemment, la plateforme décidait de bannir les vidéos affirmant que le futur vaccin contre le coronavirus sera mortel ou rendra infertile, ou bien que des implants seront introduits chez les personnes qui se feront vacciner. Toutes ces théories ciblaient en priorité Bill Gates. En outre, YouTube avait consenti à modifier son algorithme de recommandation en janvier 2019, après avoir subi de nombreuses critiques autour de la prolifération des théories conspirationnistes sur sa plateforme.