Apple Exhorté à Supprimer la Fonctionnalité IA Suite à une Controverse sur un Faux Titre de Presse
Une importante organisation de surveillance du journalisme a exhorté Apple à retirer sa fonctionnalité d’IA générative après que l’outil ait faussement attribué un titre concernant une affaire de meurtre très médiatisée à BBC News.
Pressé ? Voici les Faits Importants !
- L’outil d’IA d’Apple a faussement attribué un titre concernant Luigi Mangione à BBC News.
- Reporters Sans Frontières appelle Apple à supprimer la fonctionnalité d’IA.
- La BBC a déposé une plainte suite à l’apparition du faux titre.
La BBC a rapporté jeudi qu’une controverse a éclaté après qu’une nouvelle fonctionnalité d’Apple, Apple Intelligence, ait généré de manière inexacte un titre. Il suggérait que Luigi Mangione, un suspect dans le meurtre du PDG de l’assurance maladie Brian Thompson, s’était tiré une balle. La BBC n’avait pas publié un tel article.
Reporters sans frontières (RSF), une organisation internationale qui défend la liberté de la presse, a critiqué Apple, affirmant que l’incident met en lumière les risques que les outils d’IA immatures posent à la crédibilité des médias et à la confiance du public.
Vincent Berthier, responsable du bureau technologie et journalisme de RSF, a condamné cette erreur, la qualifiant de « coup porté à la crédibilité du média » et de menace pour l’accès du public à une information fiable. RSF a exigé qu’Apple supprime immédiatement cette fonctionnalité.
« La loi européenne sur l’IA – bien qu’étant la législation la plus avancée au monde dans ce domaine – n’a pas classé les IA génératrices d’informations comme des systèmes à haut risque, laissant un vide juridique crucial. Ce vide doit être comblé immédiatement, » a déclaré Berthier.
La BBC a confirmé avoir déposé une plainte officielle auprès du géant de la technologie et avoir demandé une résolution, mais il reste incertain si Apple a répondu.
Le résumé défectueux de l’IA ne se limitait pas à BBC News. Le 21 novembre, la fonction a résumé de manière inexacte un article du New York Times, suggérant faussement que le Premier ministre israélien Benjamin Netanyahu avait été arrêté, comme rapporté par l’article de la BBC.
Cette notification, plus tard mise en évidence par le journaliste Ken Schwencke, faisait en réalité référence à un mandat de la Cour pénale internationale contre Netanyahu.
Apple AI notification summaries continue to be so so so bad
— Ken Schwencke (@schwanksta.com) November 21, 2024 at 9:22 PM
Apple Intelligence vise à réduire les interruptions de notifications en les résumant et en les regroupant. Disponible sur les iPhones fonctionnant avec iOS 18.1 et les modèles plus récents, ainsi que sur certains iPads et Macs, l’outil a suscité des réactions négatives pour avoir mal représenté l’information provenant de sources d’actualités réputées.
Un porte-parole de la BBC a souligné que si certaines notifications regroupées résumaient avec précision des histoires sur des événements mondiaux, la désinformation impliquant Mangione démontrait le potentiel de la technologie à nuire à la fois aux médias et à la compréhension du public.
RSF a averti que « Cet accident démontre que les services d’IA générative sont encore trop immatures pour fournir des informations fiables au public, et ne devraient pas être autorisés sur le marché pour de telles utilisations. »
Ars Technica a examiné les résumés de notifications d’Apple, notant plusieurs problèmes qui se posent fréquemment. Tout d’abord, bien que certains résumés soient factuellement corrects, ils sonnent robotiques et maladroits, particulièrement sur des sujets sensibles tels que les relations ou la santé mentale. D’autres ne comprennent pas le sarcasme, l’argot ou les expressions idiomatiques, les interprétant souvent trop littéralement.
La perte de contexte est un autre problème majeur, en particulier lorsque les résumés omettent des messages antérieurs dans une discussion ou ne prennent pas en compte le contenu multimédia. Dans les discussions de groupe avec plusieurs sujets, les résumés peuvent devenir surchargés, mélangeant les sujets et conduisant à des inexactitudes.
Enfin, certains résumés sont tout simplement faux, souvent en raison d’une tentative de condenser trop d’informations en trop peu de mots, ce qui entraîne des comptes rendus déformés. Dans l’ensemble, ces problèmes, qui affectent l’utilité et la précision de la fonctionnalité, sont fréquents dans l’utilisation quotidienne.
Mangione, désormais accusé de meurtre au premier degré, est devenu un point central dans le débat sur les risques liés à l’IA dans le journalisme. La confiance du public dans les informations crédibles est en jeu alors qu’Apple est de plus en plus sous pression pour régler le problème.
Laisser un commentaire
Annulez