Les Gafam ne veulent plus jouer les sherifs des élections américaines en 2024
À l'approche d'une saison électorale mondiale qui devrait être embourbée dans la désinformation et les mensonges, les grandes plateformes technologiques basées aux États-Unis reviennent sur les politiques destinées à les freiner, attisant l'alarme.
Qu'il s'agisse de YouTube qui abandonne une politique clé en matière de désinformation ou de Facebook qui modifie les contrôles de vérification des faits, les géants des médias sociaux font preuve d'une certaine lassitude à être les shérifs du Far West Internet.
Ces changements sont survenus dans un climat de licenciements, de mesures de réduction des coûts et de pressions de la part de groupes de droite qui accusent Meta, la société mère de Facebook, ou Google, le propriétaire de YouTube, de supprimer la liberté d'expression.
Cela a incité les entreprises technologiques à assouplir leurs politiques de modération du contenu, à réduire les équipes de confiance et de sécurité et, dans le cas de X (anciennement Twitter), propriété d'Elon Musk, à restaurer des comptes connus pour promouvoir de fausses conspirations.
Selon les chercheurs, ces mesures ont érodé leur capacité à lutter contre ce qui devrait être un déluge de désinformation lors de plus de 50 élections majeures dans le monde l'année prochaine, non seulement aux États-Unis, mais aussi en Inde, en Afrique et dans l'Union européenne. .
"Les sociétés de médias sociaux ne sont pas prêtes pour le tsunami électoral de 2024", a déclaré ce mois-ci la Coalition mondiale pour la justice technologique dans un rapport.
"Alors qu'ils continuent de compter leurs profits, nos démocraties restent vulnérables aux violentes tentatives de coup d'État, aux discours de haine venimeux et à l'ingérence électorale."
En juin, YouTube a annoncé qu'il cesserait de supprimer les contenus prétendant faussement que l'élection présidentielle américaine de 2020 avait été en proie à " des fraudes, des erreurs ou des problèmes ", une décision vivement critiquée par les chercheurs en désinformation.
YouTube a justifié son action en affirmant que la suppression de ce contenu pourrait avoir " pour effet involontaire de restreindre le discours politique ".
Twitter, désormais connu sous le nom de X, a déclaré en novembre qu'il n'appliquerait plus sa politique de désinformation sur le COVID.
Depuis l'acquisition turbulente de la plateforme par le milliardaire Musk l'année dernière, celle-ci a restauré des milliers de comptes qui étaient autrefois suspendus pour violations, notamment pour diffusion de fausses informations, et a introduit un système de vérification payant qui, selon les chercheurs, a servi à stimuler les théoriciens du complot.
Le mois dernier, la plateforme a annoncé qu'elle autoriserait désormais la publicité politique payante des candidats américains, annulant une interdiction antérieure et suscitant des inquiétudes concernant la désinformation et les discours de haine lors des élections de l'année prochaine.
"Le contrôle de Musk sur Twitter a contribué à ouvrir la voie à une nouvelle ère d'imprudence de la part des grandes plateformes technologiques", a déclaré à l'AFP Nora Benavidez, du groupe non partisan Free Press.
"Nous observons un recul significatif des mesures concrètes que les entreprises mettaient autrefois en place."
Les plateformes subissent également la pression des partisans conservateurs américains qui les accusent de collusion avec le gouvernement pour censurer ou supprimer les contenus de droite sous couvert de vérification des faits.
"Ces entreprises pensent que si elles continuent à apaiser les républicains, elles cesseront de leur causer des problèmes alors qu'elles ne font qu'accroître leur propre vulnérabilité", a déclaré Berin Szoka, président de TechFreedom, un groupe de réflexion.
Pendant des années, l'algorithme de Facebook déplaçait automatiquement les publications plus bas dans le fil si elles étaient signalées par l'un des partenaires tiers de vérification des faits de la plateforme, dont l'AFP, réduisant ainsi la visibilité des contenus faux ou trompeurs.
Facebook a récemment donné aux utilisateurs américains des contrôles, leur permettant de déplacer ce contenu plus haut s'ils le souhaitent, dans une mesure potentiellement importante qui, selon la plateforme, donnera aux utilisateurs plus de pouvoir sur son algorithme.
Le climat politique hyperpolarisé aux États-Unis a fait de la modération du contenu sur les plateformes de médias sociaux un sujet brûlant.
Plus tôt ce mois-ci, la Cour suprême des États-Unis a temporairement suspendu une ordonnance limitant la capacité de l'administration du président Joe Biden à contacter les sociétés de médias sociaux pour supprimer les contenus qu'elle considère comme de la désinformation.
Un tribunal inférieur composé de juges nommés par les Républicains avait rendu cette ordonnance, estimant que les responsables américains étaient allés trop loin dans leurs efforts pour amener les plateformes à censurer certaines publications.
Les chercheurs en désinformation d'institutions de premier plan telles que l'Observatoire Internet de Stanford font également face à une enquête du Congrès dirigée par les Républicains ainsi qu'à des poursuites judiciaires de militants conservateurs qui les accusent de promouvoir la censure – une accusation qu'ils nient.
La réduction des effectifs du secteur technologique, qui a détruit les équipes de confiance et de sécurité, ainsi que le faible accès aux données des plateformes ont encore aggravé leurs défis.
"Le public a un besoin urgent de savoir comment les plateformes sont utilisées pour manipuler le processus démocratique", a déclaré à l'AFP Ramya Krishnan, du Knight First Amendment Institute de l'Université de Columbia.
"La recherche indépendante est cruciale pour exposer ces efforts, mais les plates-formes continuent de faire obstacle en rendant ce travail plus coûteux et plus risqué."
© Copyright 2024 IBTimes FR. All rights reserved.