L’IA Générative Provoque l’Alarme Dans la Science Alors Que les Faux Données Menacent la Crédibilité

Image by Freepik

L’IA Générative Provoque l’Alarme Dans la Science Alors Que les Faux Données Menacent la Crédibilité

Temps de lecture: 3 minute

Pressée ? Voici les Faits Essentiels !

  • L’IA générative permet la création rapide de données et d’images scientifiques réalistes mais fausses.
  • Les chercheurs ont du mal à détecter les images générées par l’IA en raison de l’absence de signes évidents de manipulation.
  • Des figures générées par l’IA pourraient déjà se trouver dans des revues scientifiques.

Les images générées par l’IA soulèvent de grandes préoccupations parmi les chercheurs et les éditeurs, car les nouveaux outils de l’IA générative rendent dangereusement facile la création de fausses données et images scientifiques, comme le note un communiqué de presse de Nature.

Cette avancée menace la crédibilité de la littérature académique, les experts craignant une augmentation des études fabriquées par l’IA qui pourraient être difficiles à identifier.

Jana Christopher, analyste de l’intégrité des images chez FEBS Press en Allemagne, souligne que l’évolution rapide de l’IA générative suscite de plus en plus d’inquiétudes quant à son potentiel de mauvais usage dans le domaine scientifique.

« Les personnes qui travaillent dans mon domaine – l’intégrité des images et l’éthique de la publication – sont de plus en plus préoccupées par les possibilités qu’elle offre », a déclaré Jane, comme rapporté par Nature.

Elle note que, bien que certains journaux puissent accepter des textes générés par l’IA selon certaines directives, les images et les données générées par l’IA sont considérées comme franchissant une ligne qui pourrait avoir un impact profond sur l’intégrité de la recherche, comme l’a souligné Nature.

Détecter ces images créées par l’IA est devenu un défi majeur, selon Nature. Contrairement aux manipulations numériques précédentes, les images générées par l’IA manquent souvent des signes habituels de falsification, rendant difficile la preuve de toute tromperie.

La spécialiste en imagerie forensique Elisabeth Bik et d’autres chercheurs suggèrent que des figures produites par l’IA, notamment en biologie moléculaire et cellulaire, pourraient déjà être présentes dans la littérature publiée, comme l’a rapporté Nature.

Des outils tels que ChatGPT sont maintenant régulièrement utilisés pour la rédaction d’articles, identifiables par des phrases typiques de chatbot laissées non éditées, mais les images générées par l’IA sont beaucoup plus difficiles à repérer. En réponse à ces défis, les entreprises technologiques et les institutions de recherche développent des outils de détection, a noté Nature.

Des outils alimentés par l’intelligence artificielle comme Imagetwin et Proofig sont en première ligne en formant leurs algorithmes pour identifier le contenu généré par l’IA. Le co-fondateur de Proofig, Dror Kolodkin-Gal, rapporte que leur outil détecte avec succès les images IA 98% du temps, mais il souligne que la vérification humaine reste cruciale pour valider les résultats, a déclaré Nature.

Dans le monde de l’édition, des revues comme Science utilisent Proofig pour les premières analyses des soumissions, et le géant de l’édition Springer Nature développe des outils propriétaires, Geppetto et SnapShot, pour identifier les irrégularités dans les textes et les images, comme rapporté par Nature.

D’autres organisations, telles que l’Association Internationale des Éditeurs Scientifiques, Techniques et Médicaux, lancent également des initiatives pour lutter contre les usines à articles et garantir l’intégrité de la recherche, comme le rapporte Nature.

Cependant, les experts préviennent que les éditeurs doivent agir rapidement. Kevin Patrick, détective d’images scientifiques, craint que, si l’action tarde, le contenu généré par l’IA ne devienne un autre problème non résolu dans la littérature savante, comme le rapporte Nature.

Malgré ces préoccupations, beaucoup restent optimistes que la technologie future évoluera pour détecter les tromperies générées par l’IA d’aujourd’hui, offrant une solution à long terme pour protéger l’intégrité de la recherche académique.

Vous avez aimé cet article ? Notez-le !
Mauvais Je n'ai pas vraiment aimé C'était bien Plutôt bien ! J'ai aimé !
0 Évalué par 0 utilisateurs
Titre
Commentaire
Merci pour votre avis
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Laisser un commentaire

En savoir plus...