Opinion : ChatGPT est-il votre ami ? Il serait peut-être temps d’établir des limites

Photo by Rafiee Artist on Unsplash

Opinion : ChatGPT est-il votre ami ? Il serait peut-être temps d’établir des limites

Temps de lecture: 7 minute

OpenAI et le MIT ont récemment publié un article sur l’impact de ChatGPT sur le bien-être des gens. Si la majorité des utilisateurs s’appuient sur cette technologie pour des tâches pratiques, l’étude révèle qu’un petit groupe développe des liens émotionnels profonds avec le modèle d’IA, ce qui peut affecter leur bien-être

Depuis un certain temps, j’observe avec curiosité les relations que certaines personnes développent avec l’intelligence artificielle générative. Il y a quelques mois, j’ai lu dans le New York Times l’histoire d’une femme mariée de 28 ans qui est tombée amoureuse de ChatGPT, et comment ce qui a commencé comme « une expérience amusante » s’est transformé en une relation complexe et inattendue.

J’ai observé mes amis, en particulier ceux qui ont autrefois rejeté la technologie ou qui n’y étaient pas intéressés, qui ne peuvent prendre une décision importante sans consulter leur oracle AI. J’ai également été surprise par les réponses empathiques que fournissent les modèles d’IA à des questions chargées d’émotion ou de psychologie.

Et, bien sûr, j’ai ri des blagues, des mèmes et des vidéos TikTok de publications sur les réseaux sociaux montrant comment les gens sont devenus dépendants du chatbot, certains allant même jusqu’à l’appeler leur « meilleur ami » ou « thérapeute » – et même recommandant sérieusement aux autres de faire de même.

Mais, si nous mettons de côté les expériences amusantes et les blagues pour un moment, nous pourrions réaliser que nous sommes confrontés à un phénomène préoccupant à l’échelle mondiale.

Ce mois-ci, pour la première fois dans la courte histoire de l’intelligence artificielle, OpenAI et le MIT Media Lab ont publié une étude offrant des perspectives sur l’impact actuel de ChatGPT sur le bien-être émotionnel des gens, ainsi que des suggestions sur les risques auxquels nous pourrions être confrontés en tant que société : la solitude, la dépendance émotionnelle et moins d’interactions sociales avec de vraies personnes.

Une relation qui évolue

La première approche des nouvelles technologies d’intelligence artificielle générative commence souvent par quelques questions timides, peut-être techniques sur des tâches pratiques comme la rédaction d’un email ou des demandes d’explication sur des sujets complexes, ou simplement pour un brainstorming.

Cependant, une fois qu’un utilisateur commence à tester les capacités du chatbot, il découvre qu’elles peuvent être plus vastes et plus complexes qu’attendu.

Alors que certains produits IA comme Friend—un dispositif IA portable—ont été conçus et très maladroitement promus comme le compagnon de vie d’un utilisateur, ChatGPT a été présenté comme un outil de productivité. Pourtant, un certain pourcentage de personnes utilisent le chatbot pour des questions personnelles et émotionnelles et développent des liens forts avec lui.

Même s’ils ne représentent qu’un « petit groupe », comme l’a précisé OpenAI, ils pourraient toujours représenter des millions de personnes à travers le monde, surtout si l’on considère qu’aujourd’hui plus de 400 millions de personnes utilisent ChatGPT chaque semaine. Ces utilisateurs remarquent rapidement que le chatbot d’OpenAI imite leur langage, leur ton et leur style et peut même être formé pour interagir d’une certaine manière ou utiliser des surnoms affectueux – comme cette femme qui en est tombée amoureuse – et même « paraître » plus humain.

« Leur style conversationnel, le langage à la première personne et la capacité de simuler des interactions semblables à celles des humains ont conduit les utilisateurs à parfois personnifier et anthropomorphiser ces systèmes« , déclare le document partagé par OpenAI.

Mais cette proximité comporte des risques, comme l’ont souligné les chercheurs : « Bien qu’un chatbot émotionnellement engageant puisse fournir du soutien et de la compagnie, il y a un risque qu’il manipule les besoins socioaffectifs des utilisateurs d’une manière qui compromet leur bien-être à long terme. »

La méthodologie de l’étude

L’enquête récemment publiée se concentre sur le bien-être des humains après une utilisation régulière de ChatGPT. Pour comprendre l’impact émotionnel et social du chatbot, les chercheurs ont mené deux études principales en appliquant différentes stratégies.

OpenAI a traité et analysé plus de 40 millions d’interactions en respectant la confidentialité des utilisateurs en utilisant des classificateurs, et a interrogé plus de 4 000 d’entre eux sur leurs ressentis suite à ces interactions.

Le MIT Media Lab a mené un essai avec près de 1 000 personnes sur un mois, se concentrant sur les conséquences psychosociales de l’utilisation de ChatGPT pendant au moins 5 minutes par jour. Ils ont également soumis et traité des questionnaires à la fin de l’expérience.

Sans surprise, les résultats ont révélé que les utilisateurs qui passent plus de temps avec la technologie ressentent plus de solitude et montrent plus de signes d’isolement.

Conséquences complexes et multiples ramifications

L’étude du MIT Media Lab et d’OpenAI a également proposé plusieurs réflexions sur la complexité et l’unicité des relations entre l’homme et le chatbot.

Dans la recherche, les auteurs nous offrent un aperçu des expériences diverses et des différentes façons dont chaque utilisateur interagit avec ChatGPT – et comment le résultat peut varier en fonction de différents facteurs , tels que l’utilisation de fonctionnalités vocales avancées, le mode texte uniquement, le type de voix, la fréquence d’utilisation, les sujets de conversation, la langue utilisée et le temps passé sur l’application.

« Nous déconseillons de généraliser les résultats car cela pourrait occulter les découvertes nuancées qui mettent en lumière les interactions non uniformes et complexes entre les personnes et les systèmes d’IA », met en garde OpenAI dans son annonce officielle .

Toutes les différentes approches que chaque utilisateur choisit se traduisent par des résultats différents, et nous plongent dans des zones grises difficiles à explorer.

C’est l’Effet Papillon de l’IA !

Plus de Questions Se Posent

Le document partagé par OpenAI note également que les utilisateurs intensifs ont dit qu’ils seraient « contrariés » si la voix ou la personnalité de leur chatbot changeait.

Cela m’a rappelé une vidéo que j’ai récemment vue sur les réseaux sociaux d’un homme disant qu’il préférait une voix féminine et qu’il parlait à l’IA générative tous les jours. ChatGPT pourrait-il aussi aider les hommes à s’ouvrir émotionnellement ? Que se passerait-il si un jour ChatGPT lui parlait avec une voix masculine ? Se sentirait-il trahi ? Cesserait-il d’utiliser ChatGPT ? Développait-il un lien romantique – ou simplement un espace de confiance ? Bien sûr, il est difficile de ne pas immédiatement associer ces scénarios au film Her de Spike Jonze.

Chaque compte ChatGPT, avec ses discussions historiques—chaque jour plus intimes et privées que tout profil WhatsApp ou DMs sur les réseaux sociaux—représente une relation unique avec d’innombrables résultats et conséquences.

Le Résultat Attendu

Toutes les études ont analysé différents aspects, mais ont abouti à une conclusion similaire, brièvement expliquée dans le MIT Technology Review: “Les participants qui faisaient confiance et se ‘liaient’ davantage avec ChatGPT étaient plus susceptibles que les autres d’être seuls, et de s’y appuyer davantage.

Bien que l’enquête n’ait pas porté sur les solutions ou les explications plus approfondies sur les raisons pour lesquelles cela se produit ou comment cela pourrait évoluer, il semble probable que davantage d’utilisateurs rejoindront OpenAI et d’autres plateformes d’IA, surtout maintenant que l’outil de génération d’images IA est devenu viral.

Bien que les conclusions de la recherche du MIT et d’OpenAI ne soient pas particulièrement surprenantes, l’étude fournit un contexte scientifique avec des preuves, des mesures, des échantillons, et d’autres métriques plus ‘tangibles’ qui pourraient ouvrir la voie à de nouvelles recherches et aider à aborder les implications de l’utilisation de l’intelligence artificielle aujourd’hui.

Nous avons également reçu un avertissement officiel – de ses propres développeurs – concernant les liens que nous tissons avec ChatGPT et une invitation à établir des limites et à réfléchir sur nos interactions et nos relations actuelles – ou situationships ? – avec les chatbots.

Vous avez aimé cet article ? Notez-le !
Mauvais Je n'ai pas vraiment aimé C'était bien Plutôt bien ! J'ai aimé !

Nous sommes heureux que vous ayez apprécié notre service !

En tant que fidèle lecteur de notre contenu, pourriez-vous nous donner un coup de pouce en nous laissant une petite évaluation sur Trustpilot ? C'est rapide et cela nous aide beaucoup. Merci pour votre fidélité !

Évaluez notre service sur Trustpilot
0 Évalué par 0 utilisateurs
Titre
Commentaire
Merci pour votre avis
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Laisser un commentaire

Loader
Loader En savoir plus...