Des erreurs générées par l’IA dans les documents judiciaires entraînent des problèmes juridiques pour les avocats

Photo by Saúl Bucio on Unsplash

Des erreurs générées par l’IA dans les documents judiciaires entraînent des problèmes juridiques pour les avocats

Temps de lecture: 3 minute

Un rapport partagé par Reuters hier révèle que les hallucinations de l’IA – erreurs et informations inventées créées par des modèles d’IA génératifs – posent des problèmes juridiques dans les tribunaux aux États-Unis.

Pressée? Voici les faits essentiels !

  • Morgan & Morgan a envoyé un courriel à 1 000 avocats pour les avertir des risques de l’IA.
  • Le cas récent des avocats de Walmart qui ont admis utiliser l’IA pour leurs affaires a suscité des alarmes au sein de la communauté juridique.
  • L’utilisation d’hallucinations de chatbot dans les déclarations de tribunal est devenue un problème récurrent ces dernières années.

Ce mois-ci, le cabinet d’avocats Morgan & Morgan a envoyé un courrier électronique à plus de 1 000 avocats pour les mettre en garde contre les risques liés à l’utilisation de chatbots et de faux dossiers générés par l’intelligence artificielle.

Il y a quelques jours, deux avocats du Wyoming ont admis avoir inclus des affaires fictives générées par l’IA dans un dépôt de plainte pour un procès contre Walmart, et un juge fédéral a menacé de les sanctionner.

En décembre, le professeur de Stanford et expert en désinformation Jeff Hancock a été accusé d’utiliser l’IA pour fabriquer des citations de déclarations de tribunal dans le cadre de sa déclaration de défense concernant la loi de l’État de 2023 criminalisant l’utilisation de deepfakes pour influencer les élections.

Plusieurs cas comme ceux-ci, au cours des dernières années, ont généré des frictions juridiques et ajouté des difficultés pour les juges et les plaideurs. Morgan & Morgan et Walmart ont refusé de commenter ce problème.

L’IA générative a aidé à réduire le temps de recherche pour les avocats, mais ses hallucinations peuvent engendrer des coûts significatifs. L’année dernière, une enquête de Thomson Reuters a révélé que 63% des avocats utilisaient l’IA pour leur travail et 12% le faisaient régulièrement.

L’année dernière, l’American Bar Association a rappelé à ses 400 000 membres les règles déontologiques des avocats, qui incluent la responsabilité des avocats à l’égard de toutes les informations contenues dans leurs dépôts judiciaires, et a souligné que cela incluait les informations générées par l’IA, même si c’était involontaire – comme dans le cas de Hancock.

« Quand les avocats sont pris en flagrant délit d’utilisation de ChatGPT ou de tout autre outil IA génératif pour créer des citations sans les vérifier, c’est de l’incompétence, pure et simple, » a déclaré Andrew Perlman, doyen de la faculté de droit de l’Université de Suffolk à Reuters.

Il y a quelques jours, la BBC a également partagé un rapport alertant sur de faux citations générées par l’IA et les problèmes avec les outils d’IA dans le journalisme.

Vous avez aimé cet article ? Notez-le !
Mauvais Je n'ai pas vraiment aimé C'était bien Plutôt bien ! J'ai aimé !

Nous sommes heureux que vous ayez apprécié notre service !

En tant que fidèle lecteur de notre contenu, pourriez-vous nous donner un coup de pouce en nous laissant une petite évaluation sur Trustpilot ? C'est rapide et cela nous aide beaucoup. Merci pour votre fidélité !

Évaluez notre service sur Trustpilot
0 Évalué par 0 utilisateurs
Titre
Commentaire
Merci pour votre avis
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Laisser un commentaire

Loader
Loader En savoir plus...