La Juge inflige des amendes à des avocats pour l’utilisation de recherches juridiques générées par une IA factice

Image by Freepik

La Juge inflige des amendes à des avocats pour l’utilisation de recherches juridiques générées par une IA factice

Temps de lecture: 3 minute

Une juge américaine a vivement critiqué deux cabinets d’avocats pour avoir inclus dans un dépôt de dossier judiciaire des informations juridiques fausses générées par l’IA, qualifiant cela de grave manquement à la responsabilité juridique.

Pressée ? Voici les faits rapides :

  • Un juge a infligé une amende de 31 000 $ à deux cabinets d’avocats pour des citations juridiques générées par intelligence artificielle et factices.
  • Des informations fausses ont été découvertes dans un mémoire de procédure déposé dans une affaire State Farm.
  • Au moins deux affaires juridiques citées ont été entièrement fabriquées par l’intelligence artificielle.

Le juge Michael Wilner, basé en Californie, a infligé une amende de 31 000 dollars aux entreprises après avoir découvert que le rapport était rempli de « citations et de citations juridiques fausses, inexactes et trompeuses », comme l’a d’abord rapporté WIRED.

« Aucun avocat raisonnablement compétent ne devrait sous-traiter la recherche et la rédaction » à l’IA, a écrit Wilner dans son jugement, avertissant qu’il était proche d’inclure les faux cas dans une ordonnance judiciaire.

« J’ai lu leur mémoire, j’ai été convaincue (ou du moins intriguée) par les autorités qu’ils ont citées, et j’ai recherché les décisions pour en savoir plus à leur sujet – seulement pour découvrir qu’elles n’existaient pas », a-t-elle dit, comme rapporté par WIRED. « C’est effrayant », a-t-elle ajouté.

La situation est survenue lors d’un procès civil contre State Farm. Un avocat a utilisé des outils d’IA pour rédiger un plan juridique. Ce document, contenant de fausses recherches, a été remis au grand cabinet d’avocats K&L Gates, qui l’a ajouté à un dépôt officiel.

« Aucun avocat ou membre du personnel des deux cabinets n’a apparemment vérifié ou examiné ces recherches avant le dépôt de la requête », a noté Wilner, comme rapporté par WIRED.

Après avoir découvert que au moins deux des affaires citées étaient totalement inventées, le juge Wilner a demandé des éclaircissements à K&L Gates. Lorsqu’ils ont soumis une nouvelle version, il s’est avéré qu’elle contenait encore plus de citations fausses. Le juge a exigé une explication, qui a révélé des déclarations sous serment admettant l’utilisation d’outils d’IA, comme rapporté par WIRED..

Wilner a conclu : « L’utilisation initiale, non divulguée, de produits d’IA pour générer le premier brouillon de l’exposé était carrément incorrecte […] Et envoyer ce matériel à d’autres avocats sans divulguer son origine d’IA douteuse mettait réellement ces professionnels en danger, » comme rapporté par WIRED.

Ce n’est pas la première fois que l’IA pose problème dans les tribunaux. En effet, deux avocats du Wyoming ont récemment admis avoir utilisé des affaires simulées par l’IA dans une requête judiciaire pour un procès contre Walmart. Un juge fédéral les a également menacés de sanctions.

Dans ce scénario, les « hallucinations » de l’IA – des informations inventées générées par des outils d’IA – deviennent une préoccupation croissante dans le système juridique.

Vous avez aimé cet article ? Notez-le !
Mauvais Je n'ai pas vraiment aimé C'était bien Plutôt bien ! J'ai aimé !

Nous sommes heureux que vous ayez apprécié notre service !

En tant que fidèle lecteur de notre contenu, pourriez-vous nous donner un coup de pouce en nous laissant une petite évaluation sur Trustpilot ? C'est rapide et cela nous aide beaucoup. Merci pour votre fidélité !

Évaluez notre service sur Trustpilot
0 Évalué par 0 utilisateurs
Titre
Commentaire
Merci pour votre avis
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Laisser un commentaire

Loader
Loader En savoir plus...