Opinion : Meta a supprimé son programme de vérification des faits – Sommes-nous en route vers une anarchie de la liberté d’expression ?
Comprendre le raisonnement derrière la décision de Meta d’éliminer son programme de vérification des faits pourrait offrir des perspectives précieuses sur l’avenir d’Instagram, Threads, et Facebook—particulièrement lorsqu’on considère X comme référence et la direction stratégique de Zuckerberg
La semaine dernière, Mark Zuckerberg a annoncé la fin du programme de vérification des faits de Meta pour Facebook, Instagram et Threads. La nouvelle a rapidement fait le tour du web, et les gens ont commencé à se questionner sur les raisons et les conséquences de cette décision majeure.
Cette grande manoeuvre a soulevé de sérieuses préoccupations quant à la manière dont les utilisateurs sont censés réagir et comment la désinformation pourrait se propager à l’échelle mondiale.
De nombreux utilisateurs ont commencé à supprimer leurs comptes de médias sociaux sur les plateformes de Meta, fuyant vers d’autres réseaux comme Bluesky—qui lancera bientôt sa version Instagram—ou Mastodon, et craignant que nous nous dirigions vers un environnement numérique chaotique.
Meta imite beaucoup des stratégies de X—anciennement Twitter. Elon Musk a dissous le Conseil de Confiance et de Sécurité de la plateforme en décembre 2022, quelques mois seulement après avoir acheté le réseau social. À la place, il a développé le programme Community Notes pour s’appuyer sur les utilisateurs comme vérificateurs de faits, et Zuckerberg va faire de même.
Mais, décomposons cela d’abord :
Pourquoi Meta fait-il cela ?
Eh bien, il existe de nombreuses théories autres que l’officielle : « liberté d’expression ». Meta a affirmé que les systèmes de gestion de contenu ne fonctionnaient pas.
« Aussi bien intentionnées que nombre de ces initiatives aient été, elles se sont élargies au fil du temps au point où nous commettons trop d’erreurs, frustrant nos utilisateurs, et entravant trop souvent la libre expression que nous nous sommes engagés à permettre », déclare l’annonce officielle.
Oui, le système de modération de Meta était déjà en panne
Alors que beaucoup d’entre nous – surtout les journalistes – sommes anxieux à propos de la décision de Zuckerberg sur la « liberté d’expression », qui pourrait permettre à davantage de comptes malveillants de propager de fausses informations, des deepfakes et du contenu manipulatoire, le service de modération de Meta posait déjà un problème significatif.
Meta a eu du mal à protéger les utilisateurs de contenu nuisible, et de nombreux utilisateurs et comptes ont été injustement bannis des plateformes de médias sociaux. Nous avons également vécu cette situation agaçante chez Wizcase.
Les systèmes de sécurité et de modération de l’entreprise étaient loin d’être parfaits. Mais, était-ce la meilleure option de les faire disparaître ? Certains d’entre nous pensent que ce n’était pas la meilleure solution, voire même une solution.
Cependant, Zuckerberg a quand même décidé de rejeter la faute sur des tiers.
Les vérificateurs de faits sont-ils le problème ?
Zuckerberg a accusé les services tiers d’être le principal problème de la mauvaise modération du contenu et de la censure. Il a affirmé que « les vérificateurs de faits ont été trop politiquement biaisés » et ont « détruit plus de confiance qu’ils n’en ont créée », mais les modérateurs et les vérificateurs de faits ne sont pas d’accord.
J’ai contacté un ancien modérateur de contenu qui a travaillé pendant trois ans pour une entreprise de modération de contenu tierce pour Twitter — maintenant X —, qui a préféré rester anonyme.
Ma source a considéré que cela n’avait aucun sens car ils respectaient toujours les directives fournies par le client, dans ce cas, Twitter. « Pour moi, il est difficile de croire que les vérificateurs de faits étaient ‘trop politiquement biaisés' », a-t-il expliqué, par email en assurant que les modérateurs de contenu se contentent de suivre les règles. « Nous n’avions pas l’autorité pour agir sur les comptes à haut nombre d’abonnés ou les comptes de personnes politiques ou célèbres. »
Neil Brown, le président de l’Institut Poynter, l’un des partenaires de vérification des faits de Meta, a également déclaré au New York Times que l’allégation de Zuckerberg était fausse. Selon Brown, leur équipe a utilisé les outils de Meta pour effectuer des vérifications de faits et c’est Meta qui a décidé comment y répondre.
Lori Robertson, rédactrice en chef de FactCheck.org – un autre partenaire de Meta depuis 2016 – a déclaré que leur organisation a toujours maintenu des normes transparentes et qu’ils vérifient les faits des contenus provenant des deux partis, démocrates et républicains.
« Notre travail ne consiste pas à censurer », a-t-elle écrit. « Nous fournissons des informations précises pour aider les utilisateurs des médias sociaux à naviguer dans leurs fils d’actualités. Nous n’avons pas, et ne pourrions pas, supprimer de contenu. Toute décision de le faire était du ressort de Meta. »
Une décision d’entreprise
Beaucoup considèrent la décision de Zuckerberg comme profondément personnelle. Une opportunité de se débarrasser de la responsabilité et des conséquences de maintenir un environnement sûr sur ses plateformes de médias sociaux, de satisfaire le futur président Donald Trump et d’éviter la prison—Trump avait auparavant menacé Zuckerberg d’emprisonnement à vie—, tout en, bien sûr, gardant son entreprise à flot.
Il existe même des théories disant que le mouvement de Zuckerberg était un moyen de garantir que TikTok soit banni et que les utilisateurs favorisent Instagram Reels, donnant à Meta plus de pouvoir dans la sphère des médias sociaux.
« Je pense que les gens ignorent souvent que les plateformes de médias sociaux sont des entreprises et qu’en tant que telles, elles prennent des décisions pour leur propre bénéfice », a déclaré l’ancienne modératrice de contenu que j’ai interrogée. Et beaucoup le voient aussi de cette façon.
Après avoir observé le geste de Zuckerberg et le comportement de Musk, le PDG de Mastodon, Eugen Rochko, a annoncé qu’il transférera la propriété et les actifs à une organisation européenne à but non lucratif dans le but de garder sa plateforme « libre du contrôle d’un seul individu fortuné ».
Nous nous dirigeons vers une ère d' »énergie masculine », de travail gratuit et de désinformation
Tous les signes indiquent que 2025 sera encore plus difficile en ce qui concerne la distinction entre vérité, faits et images réelles et le contenu généré par l’IA. Pour aggraver les choses, les plus grandes plateformes de médias sociaux du monde ne se contentent pas de se débarrasser des vérificateurs de faits et des modérateurs de contenu, mais partagent également une forte position politique qui façonnera directement la dynamique de leurs plateformes.
Contenu Plus Agressif Et Politique
Dans le processus d’alignement avec les principes de Trump, Zuckerberg a rapidement commencé à partager publiquement des croyances similaires à celles du mouvement MAGA de Trump.
Dans le podcast de Joe Rogan, le PDG de Meta a déclaré que l’entreprise pourrait utiliser davantage d' »énergie masculine ». Et a ajouté : « Je pense qu’avoir une culture qui, comme, célèbre un peu plus l’agression a ses propres mérites qui sont vraiment positifs », a-t-il dit.
Les plateformes de Zuckerberg changent aussi rapidement. Adam Mosseri, responsable d’Instagram et Threads, a confirmé il y a quelques jours que nous verrons plus de contenu politique et de publicités sur Threads.
« À partir de cette semaine aux États-Unis, et dans le courant de la semaine prochaine pour le reste du monde, nous allons ajouter du contenu politique aux recommandations sur Threads et ajuster le contrôle du contenu politique à trois options : moins, standard, par défaut, et plus. »
Préparez-vous à des débats politiques plus intenses sur les réseaux sociaux cette année !
Plus de Responsabilités Non Rémunérées Pour les Utilisateurs
Le système de Notes Communautaires semble être une solution pour les grandes entreprises de médias sociaux pour diluer leur responsabilité vis-à-vis des absurdités que les gens publient en ligne. Les utilisateurs qui participent au programme – quasiment n’importe qui avec plus de quelques mois sur la plateforme peut rejoindre – ont la possibilité d’ajouter du contexte aux publications potentiellement trompeuses afin d’aider les gens à mieux comprendre le post et son intention.
Cependant, au moins le programme de X semble être un système de bénévolat et ceux qui y participent et interagissent ne reçoivent aucune compensation financière pour leurs tâches. Meta n’a pas divulgué plus de détails sur leur programme, mais il ne semble pas qu’il y aurait une différence à cet égard.
Les médias sociaux sont-ils une arnaque ? Les utilisateurs passent des heures à créer des vidéos, des histoires et des commentaires, gardant les algorithmes actifs et alimentant la formation de l’IA. Désormais, ils ajoutent également du contexte et aident les plateformes à construire un environnement plus sain – gratuitement, du moins pour la majorité qui ne bénéficient pas financièrement d’un modèle d’affaires.
Cette solution n’est aussi qu’un pansement sur une plaie béante. Au final, c’est « l’algorithme » qui prend les décisions, et des organisations comme MediaWise de l’Institut Poynter ont déclaré que dans de nombreux cas, moins de 10 % des notes sont effectivement publiées.
Une recette pour plus de désinformation
J’ai personnellement assisté à une transformation drastique de mon fil X au cours des dernières années. Des amis et des personnes que je suivais ont quitté la plateforme, laissant place à des débats absurdes « hommes contre femmes » et à des vidéos virales mises en scène destinées à provoquer la colère et à générer davantage de ces partages furieux.
Pendant ce temps, le contenu politique a de plus en plus dominé, m’attirant presque dans chaque controverse et idée polarisante.
Sans vérificateurs de faits et modérateurs de contenu, on ne peut que s’attendre à une augmentation des opinions polarisées, des deepfakes, des fausses informations et des contenus nuisibles sur les plateformes de Meta.
La stratégie des Notes de la Communauté ne sera pas suffisante pour suivre le rythme de la modération du contenu, et finalement, les décisions concernant ce qui se passe sur la plateforme dépendront toujours de « l’algorithme », ajusté selon les préférences du propriétaire de la plateforme.
Il est incertain de ce qui se passera à l’avenir, même les résultats de X sont encore en cours d’évaluation, mais en tant qu’utilisateurs de médias sociaux, nous ferons partie d’une expérience sociale mondiale percutante.
L’avenir reste incertain, même les conséquences des changements de X sont toujours en cours, mais une chose est claire : en tant qu’utilisateurs de médias sociaux, nous sommes tous participants dans une expérience globale profonde et de grande portée.
Laisser un commentaire
Annulez