Opinion : L’épidémie d’hallucinations IA, une crise pour laquelle nous ne sommes pas prêts

Image generated with DALL·E through ChatGPT

Opinion : L’épidémie d’hallucinations IA, une crise pour laquelle nous ne sommes pas prêts

Temps de lecture: 9 minute

Malgré des promesses continues de réduire les hallucinations de l’IA, les principaux outils d’IA – de ChatGPT à Perplexity en passant par Gemini et Apple Intelligence – continuent de générer de fausses informations, souvent avec des conséquences alarmantes. Des experts, y compris ceux qui mettent en garde contre les risques de l’IA, se sont laissés tromper par des contenus fabriqués, et même des outils avancés comme Deep Research fabriquent des rapports. La vérité semble toujours être entre les mains des humains

Les chatbots se sont beaucoup améliorés au fil des ans. Cependant, il y a un problème qui n’a pas encore été tout à fait résolu et qui est connu sous le nom de « hallucinations ».

Nos chatbots bien-aimés nous offrent des réponses brillantes à nos questions avec la détermination et l’autorité d’un Yoda de science-fiction, même lorsqu’ils sont terriblement dans l’erreur. Et nous les croyons. Parfois aveuglément.

Plusieurs scientifiques, experts et même des développeurs de chatbots nous mettent en garde contre les hallucinations depuis des années. Pourtant, alors que l’adoption se répand rapidement—OpenAI a signalé 400 millions d’utilisateurs actifs par semaine il y a quelques jours à peine—la littératie en IA n’a pas suivi le même rythme.

Des études récentes, des procès et des événements dramatiques continuent de montrer que la désinformation est encore plus dangereuse que nous ne le réalisons.

C’est Pire Que Nous Ne Le Pensons

Au début, repérer les erreurs majeures générées par l’IA était assez drôle, comme ces embarrassantes synthèses IA générées par Gemini suggérant aux utilisateurs d’ajouter « de la colle non toxique à la sauce » pour une recette de pizza, ou recommandant de manger « un petit caillou par jour » l’année dernière. Mais, alors que nous reprenons confiance en l’IA, la situation a escaladé, devenant de plus en plus préoccupante.

En décembre, nous avons vu l’outil d’IA d’Apple créer des titres « résumant » les actualités et générant de fausses informations trompeuses, comme prétendre faussement que la BBC avait annoncé que Luigi Mangione s’était suicidé. Après cet incident, la publication a déposé une plainte contre Apple et a commencé à étudier la précision de l’IA générative lors de l’analyse du contenu des actualités.

Les résultats de la BBC, publiés il y a seulement quelques jours, ont révélé des statistiques alarmantes : 51% des réponses fournies par les chatbots d’IA populaires contenaient des problèmes significatifs, 13% des citations fournies par les modèles étaient totalement fabriquées, et 19% des données étaient incorrectes.

Les adolescents figurent parmi les populations les plus touchées, car ils ont souvent du mal à distinguer les fausses informations des vraies informations, et peuvent être facilement influencés par le contenu généré par l’IA. Une étude publiée en janvier a montré que 35% des adolescents ont été induits en erreur par de faux contenus générés par des modèles d’IA, et 22% ont partagé ces fausses informations.

Mais ce ne sont pas seulement les adolescents et les personnes distraites qui se laissent berner par ces hallucinations. Et cela ne concerne pas uniquement Gemini ou Apple Intelligence.

Aucun Modèle d’IA N’est Épargné, Aucune Industrie N’est Sûre

Cette recherche menée par la BBC confirme un autre problème : tous les modèles d’IA hallucinent. Les experts ont examiné les modèles les plus populaires, tels que ChatGPT, Gemini, Perplexity et Copilot. Aucun modèle d’IA n’est exempt d’erreurs. Anthropic a une page consacrée à ce problème, suggérant des idées sur comment réduire les hallucinations.

« Même les modèles de langage les plus avancés, comme Claude, peuvent parfois générer du texte qui est factuellement incorrect ou incohérent avec le contexte donné », déclare le document. D’autres entreprises d’IA ont partagé des pages similaires avec des conseils et astuces pour éviter le contenu faux, mais ce n’est pas si facile et cela reste un problème non résolu depuis longtemps.

En 2023, OpenAI a annoncé qu’elle travaillait sur de nouvelles méthodes innovantes pour se débarrasser des hallucinations. Alerté spoiler : c’est toujours un énorme problème aujourd’hui.

En janvier 2024, soit plus d’un an auparavant, le PDG Aravind Srinivas a déclaré que les hallucinations de Perplexity se produisaient principalement sur des comptes non payants. « La plupart des plaintes proviennent de la version gratuite du produit, » a expliqué Srinivas, ajoutant qu’ils étaient déjà en train de rajouter plus de GPUs pour résoudre le problème. Pourtant, en octobre, le New York Post et Dow Jones avaient intenté une action en justice contre Perplexity – car leur modèle continuait d’attribuer de fausses informations à leurs publications – et l’outil d’IA développé par la start-up pour les élections américaines a été testé par des experts qui ont révélé des incohérences, des résumés inexacts et des hallucinations.

La Maladie des Hallucinations Atteint les Niveaux Scientifiques et Académiques

L’une des plus grandes préoccupations actuelles est que même les experts – y compris ceux qui alertent sur les risques et les dangers de l’IA – se laissent berner par ces outils enclins à l’hallucination.

En décembre, le professeur de Stanford et expert en technologie et désinformation Jeff Hancock a été accusé d’utiliser l’IA pour rédiger une déclaration de tribunal. Hancock a déposé une déclaration de 12 pages défendant la loi de l’État de 2023 qui criminalise l’utilisation des deepfakes, incluant 15 citations. Cependant, deux de ces citations ne pouvaient être trouvées nulle part – parce que ChatGPT, l’outil IA de prédilection de l’expert en désinformation, les avait tout simplement inventées.

Hancock, qui devait enseigner « Vérité, Confiance et Technologie » cette année, a expliqué qu’il avait utilisé le chatbot d’OpenAI pour organiser ses citations, ce qui a conduit à des hallucinations. Le chercheur s’est excusé—et a soutenu les points substantiels de sa déclaration—, et nous a tous appris la précieuse leçon que même les experts et ceux qui connaissent le mieux les risques de l’IA y sont sensibles.

Le professeur Hancock n’a pas été le seul à soumettre des documents contenant des fabrications générées par l’IA en cour, bien sûr. Un autre cas impliquant un procès contre Walmart a récemment fait le buzz car les avocats ont utilisé de faux cas générés par l’IA pour construire leur argumentaire. En fait, le problème est devenu si fréquent dans les tribunaux américains que le cabinet d’avocats Morgan & Morgan a récemment envoyé des emails à ses plus de 1 000 avocats, les avertissant des risques liés à l’utilisation de citations générées par l’IA, et l’American Bar Association a rappelé à ses 400 000 membres les règles d’éthique des avocats, y compris les informations générées par l’IA.

Recherche approfondie aussi

L’un des outils d’IA les plus populaires en ce moment est « Deep Research », conçu pour les experts et les scientifiques à la recherche de résultats plus complexes dans leurs recherches. Les hallucinations ne sont pas non plus absentes de cet outil, même si la version d’OpenAI nécessitait initialement un abonnement Pro à 200$ pour y accéder.

Les utilisateurs sur Reddit ont exprimé leurs préoccupations à ce sujet, signalant que tous les modèles populaires dotés d’outils de recherche approfondie – Perplexity, ChatGPT, et DeepSeek – ont halluciné. Les chercheurs et les experts en IA ont également partagé des résultats troublants sur d’autres plateformes de médias sociaux comme X.

« L’outil a produit un rapport magnifiquement écrit et argumenté, » a écrit un utilisateur qui a utilisé l’outil de recherche approfondie d’OpenAI pour étudier les mathématiques réalisées par les jeunes. « Le seul problème, c’est que tout est inventé. »

« Deep Research a inventé un tas de statistiques et d’analyses, tout en prétendant compiler un ensemble de données de milliers d’articles, et supposément recueillir des informations sur l’année de naissance de chaque auteur à partir de sources réputées, » a partagé un autre. « Rien de tout cela n’est vrai. »

La Vérité Reste Entre les Mains de l’Homme

Les chatbots vont-ils un jour arrêter de divaguer ? Le point faible de l’IA est évident depuis des années – nous l’avons observé dans des podcasts comme Planet Money lorsqu’ils ont testé des épisodes générés par IA en 2023, et nous continuons de le voir dans les modèles les plus avancés, même ceux conçus pour un usage exclusif par des communautés d’experts et de technophiles.

Peut-être est-il temps d’accepter que cela restera un problème et de comprendre que nous devons assumer la responsabilité de ce que nous créons et partageons en utilisant des outils d’IA.

Le fait que, bien que cela semble être un problème bien connu, les experts en risques d’IA eux-mêmes se laissent séduire par l’écriture persuasive et convaincante de l’IA est définitivement préoccupant. La situation devient encore plus complexe alors que l’adoption continue d’accélérer à toute vitesse, dépassant la littératie numérique, tandis que les incohérences et les citations fabriquées se multiplient.

Les cas où les hallucinations de l’IA ont été révélées tendent à être ceux dans lesquels la vérification des faits est cruciale, quelque chose dont Zuckerberg devrait se rappeler maintenant qu’il a supprimé son département de vérification des faits. C’est particulièrement évident dans les salles d’audience, où les avocats et les juges travaillent pour vérifier les faits et les affaires, et dans les médias d’information, où l’exactitude et la validation des sources sont importantes.

Mais qu’en est-il des cas où personne n’examine ces détails ? Que se passe-t-il dans des contextes quotidiens, plus personnels ? En ce moment, des millions d’étudiants mémorisent des réponses générées par l’IA pour leurs études, des utilisateurs suivent des instructions fournies par l’IA pour traiter des maux, et d’autres apprennent de nouveaux sujets, en faisant entièrement confiance à la technologie.

Les conséquences de cette nouvelle réalité à laquelle nous sommes confrontés sont incommensurables et imprévisibles, et la vérité – pour l’instant – est entre les mains de ceux qui prennent le temps de questionner et de vérifier.

Vous avez aimé cet article ? Notez-le !
Mauvais Je n'ai pas vraiment aimé C'était bien Plutôt bien ! J'ai aimé !

Nous sommes heureux que vous ayez apprécié notre service !

En tant que fidèle lecteur de notre contenu, pourriez-vous nous donner un coup de pouce en nous laissant une petite évaluation sur Trustpilot ? C'est rapide et cela nous aide beaucoup. Merci pour votre fidélité !

Évaluez notre service sur Trustpilot
0 Évalué par 0 utilisateurs
Titre
Commentaire
Merci pour votre avis
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Laisser un commentaire

Loader
Loader En savoir plus...