La Ligne Claire Entre Les Vidéos Réelles et Celles Générées par l’IA Pourrait Disparaître en 2025
Le contenu généré par l’IA est là pour rester. Il s’améliore de plus en plus et nous avons constaté une amélioration significative des technologies de l’IA en 2024. Serons-nous capables de distinguer ce qui est réel de ce qui ne l’est pas en 2025?
Je me suis récemment surprise à me demander : « Est-ce une vraie femme? » – tout en plissant légèrement les yeux – après avoir vu une publication sur Instagram. « Non, cela doit être généré par l’IA », ai-je conclu après un moment. Puis je me suis immédiatement demandé : Serons-nous toujours capables de faire la différence en quelques secondes l’année prochaine? Tous les signes indiquent que non, surtout sur les réseaux sociaux, comme le suggèrent les développements majeurs récents dans la technologie de l’IA.
Il y a quelques jours, le responsable d’Instagram, Adam Mosseri, a partagé un message abordant cette question sur Threads. « L’IA générative produit clairement du contenu qui est difficile à distinguer des enregistrements de la réalité, et s’améliore rapidement », a-t-il écrit. Mosseri a publiquement reconnu qu’ils ont du mal à Meta pour étiqueter le contenu créé par l’IA et à contrôler et surveiller les quantités massives de médias partagés chaque seconde sur leurs plateformes de médias sociaux.
Mosseri a lavé les mains de Meta de toute responsabilité et a averti les utilisateurs qu’il leur incombe de discerner si un post était réel ou non. « Il sera de plus en plus crucial que le spectateur, ou le lecteur, fasse preuve d’un esprit critique lorsqu’il consomme du contenu prétendant être un compte rendu ou un enregistrement de la réalité », a-t-il ajouté.
Quelques jours plus tard, OpenAI a lancé Sora Turbo, son puissant générateur de vidéos IA, permettant aux utilisateurs Pro et Plus de générer des vidéos réalistes à partir de simples textes. En quelques minutes, les utilisateurs ont commencé à créer des vidéos fascinantes et réalistes, puis à les partager sur les réseaux sociaux.
Juste au moment où tout semblait atteindre un nouveau niveau de production vidéo, Google a annoncé son dernier outil vidéo IA, Veo 2, avec une résolution plus élevée et des clips plus longs que Sora. Bien sûr, les résultats partagés par ceux qui ont eu accès à cette technologie avancée étaient encore plus impressionnants.
« Personne ne peut dire que c’est de l’IA maintenant », a écrit un utilisateur.
C’est fini.
Google Veo 2 vient d’éliminer la concurrence et est devenu le nouveau roi du monde des médias IA.
Personne ne peut dire que c’est de l’IA maintenant.
10 exemples sauvages : pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) 17 décembre 2024
C’est déjà en train de se passer
Au cours de l’année 2024, nous avons observé comment le contenu généré par l’IA a influencé les populations, les élections et les utilisateurs de médias sociaux.
En janvier, les habitants du New Hampshire ont reçu un appel « de Joe Biden » leur demandant de ne pas voter aux élections primaires. Le consultant politique Steve Kramer était à l’origine de cette supercherie et a été condamné à une amende de 6 millions de dollars pour les appels automatisés deepfake AI. Les gouvernements ont compris l’impact que l’IA peut avoir et des nations comme Singapour ont élaboré des lois et des stratégies pour aider la population à signaler le contenu deepfake.
Au Venezuela, les vidéos générées par l’IA ont diffusé de la désinformation—mais elles ont également aidé les journalistes à informer grâce aux avatars IA pour contourner la censure.
Les gens ont du mal à distinguer ce qui est réel de ce qui ne l’est pas, et ce n’est pas de leur faute : les contenus générés par l’IA ne cessent de s’améliorer.
Les contenus de haute qualité générés par l’IA sont une activité en pleine croissance sous toutes ses formes ; texte, audio et vidéo. De nombreux créateurs OnlyFans s’appuient actuellement sur des chatbots pour engager la conversation avec leurs fans, une tâche qui était autrefois attribuée à des travailleurs indépendants dans des pays à faible revenu. Les nouveaux modèles d’IA spécialisés dans les techniques de flirt ont même généré $1,000 en pourboires de la part de leurs abonnés.
En avril, la start-up soutenue par Nvidia, Synthesia a lancé des avatars AI capables d’exprimer des émotions humaines et de parler dans 130 langues. TikTok permet aux entreprises de créer des publicités générées par AI en utilisant le contenu de Getty Images, et maintenant les créateurs de YouTube peuvent utiliser la nouvelle fonctionnalité de doublage automatique d’AI pour traduire leur contenu en 9 langues et les futures mises à jour reproduiront la voix originale.
Zoom travaille sur la création d’avatars AI qui ressemblent exactement aux utilisateurs pour les aider à enregistrer des messages et même à participer à des réunions. Cet outil sera déployé l’année prochaine, mais les gens ont déjà testé plusieurs outils et les entreprises peuvent déjà créer des clones AI photoréalistes.
Êtes-vous sûre d’avoir parlé à une vraie personne lors de votre dernier appel Zoom ?
Comment savoir si c’était créé par l’IA ? Pour l’instant
Nous vivons des moments déroutants dans cette ère numérique. Les filtres peuvent faire ressembler n’importe qui à un mannequin à la peau impeccable, et les corrections dignes de Photoshop sont à portée de clic sur Instagram ou Snapchat – combien de personnes voudraient partager leur image « naturelle », imperfections et tout, quand elle peut être améliorée en quelques secondes ? Nous voyons de plus en plus de publicités présentant des images photoréalistes générées par l’intelligence artificielle, convaincant progressivement nos yeux de leur familiarité et de leur « normalité ». Et chaque jour, des événements surprenants à travers le monde nous font nous interroger : qu’est-ce qui est réel, et qu’est-ce qui ne l’est plus ?
Les grandes entreprises d’IA ont travaillé sur des filigranes pour repérer leur contenu généré par l’IA et le reconnaître facilement. Google DeepMind a lancé son système de filigrane en open-source en octobre pour marquer les vidéos, textes et audios générés par l’IA, et Meta a également inclus un dans son outil vidéo IA.
Mais son efficacité est discutable, à commencer par Meta qui reconnaît simplement qu’ils ne peuvent pas marquer tout le contenu généré par l’IA. Les acteurs malveillants peuvent toujours trouver des moyens de supprimer les filigranes et davantage de lois, de partenariats et d’accords sont nécessaires entre les entreprises de médias sociaux et les gouvernements pour atteindre un système plus réussi.
Pour l’instant, en plus de faire confiance à notre intuition, nous pouvons nous poser quelques questions avant de partager sur les réseaux sociaux ou de croire ce que nous voyons :
- Tout comme Mosseri le recommandait, considérez ce qui suit : Qui partage cette information ? Est-ce une source fiable ?
- L’expression ou le mouvement de la personne semble-t-il robotique ? Bien que les avatars IA puissent être assez réalistes, il est toujours possible de reconnaître une étrange rigidité ou un manque d’émotion, bien que quelques entreprises comme Synthesia travaillent déjà à améliorer cela.
- Le contenu est-il conçu pour provoquer une forte réaction émotionnelle ? Les acteurs malveillants savent à quel point nous partageons facilement des nouvelles négatives et interagissons avec du matériel chargé émotionnellement sur les réseaux sociaux, et une recherche le confirme. Avant de partager ce contenu qui a fait bouillir votre sang pour rendre les autres aussi indignés que vous, réfléchissez à savoir s’il est conçu pour susciter la controverse ou s’il s’agit réellement de vraies nouvelles ou d’un véritable événement.
- Pouvez-vous corroborer le contenu avec d’autres sources ? Il ne fait jamais de mal de vérifier avec des sources fiables.
Et enfin, vous êtes-vous demandé – ou à votre chatbot préféré – comment améliorer votre esprit critique ? Développer un esprit critique devrait certainement faire partie des résolutions du Nouvel An de tout le monde.
Laisser un commentaire
Annulez