OpenAI lance son nouveau modèle d’IA ultra-avancée : GPT-4o
OpenAI a présenté son tout dernier modèle d’intelligence artificielle (IA) ChatGPT, GPT-4o, lors de son évènement live OpenAI Spring Update lundi soir. Le nouveau GPT-4o est plus rapide que GPT-4 et peut traiter simultanément du texte, de l’audio et des images. Et il peut même essentiellement « voir » à travers l’appareil photo de n’importe quel appareil.
Au cours de sa présentation vidéo en direct de 26 minutes, l’équipe d’OpenAI a montré en temps réel les nouvelles fonctionnalités et capacités du nouveau modèle. Elle a également partagé des détails sur les mises à jour à venir pour les versions précédentes, y compris une nouvelle application pour ordinateur.
« La grande nouvelle aujourd’hui est que nous lançons notre nouveau modèle phare. Nous l’avons appelé ChatGPT-4o », a déclaré Mira Murati, directrice de la technologie d’OpenAI.
Murati a expliqué que le nouveau modèle, ainsi que les nouvelles fonctionnalités pour les versions précédentes, seront bientôt disponibles gratuitement et accessibles à tous, y compris les utilisateurs qui n’ont pas de compte. « Nous les déploierons au cours des prochaines semaines », a déclaré Murati.
Lors de la première démonstration, l’équipe d’OpenAI a montré comment GPT-4o peut tenir des conversations en utilisant une voix féminine, être interrompu, répondre rapidement et de manière créative (avec un sens de l’humour !) et même reconnaître les émotions et donner des conseils.
L’équipe a également présenté différents scénarios et cas d’usage de GPT-4o. Elle a démontré comment GPT-4o peut utiliser la fonctionnalité « vision » pour aider à résoudre des équations linéaires écrites sur papier, peut comprendre du code et des graphiques grâce au partage d’écran via la version pour ordinateur, et peut même réaliser les traductions simultanées lors de vraies conversations. GPT-4o peut discuter dans plusieurs langues et utiliser différents tons et styles de voix.
Enfin, les experts ont montré comment il peut reconnaître les émotions humaines et commettre des erreurs. Tout au long des démos, GPT-4o a eu plusieurs couacs, confondant l’un des présentateurs avec une image en bois et croyant que le problème mathématique était déjà résolu alors que le membre de l’équipe n’avait encore rien montré.
Mais GPT-4o s’est rapidement excusé et a charmé le public par ses réponses. « Oh, arrête, tu me fais rougir ! », a-t-il répondu lorsque l’un des responsables de la recherche, Barret Zoph, a déclaré à GPT-4o à quel point ils l’admiraient.
Les réactions à GPT-4o
OpenAI a partagé plusieurs courtes vidéos sur X pour présenter les différentes fonctionnalités du nouveau modèle GPT-4o.
Plusieurs personnes sur X l’ont associé au film Her, dans lequel le protagoniste Theodore Twombly, interprété par Joaquin Phoenix, tombe amoureux d’un assistant virtuel IA qui a la voix de Scarlett Johanson. « C’est dingue, quand j’ai vu ces clips, j’ai tout de suite pensé à ce film ! » a commenté un utilisateur. « C’est littéralement de Scarlett Johansson. Mais comment ?! », a écrit un autre.
Si la plupart des utilisateurs ont été impressionnés par les nouvelles fonctionnalités, d’autres ont partagé quelques critiques et inquiétudes. « Cher @openai, ta démo était super impressionnante et effrayante mais l’accent italien était horrible :), » a posté Massimo Banzi, co-fondateur du projet d’automatisation robotique Arduino.
« Vraiment excellent, mais je dirais que je pense que vous risquez de perdre beaucoup d’utilisateurs payants si la seule différence entre les versions gratuites et payantes est le nombre de questions qu’on peut poser », a déclaré un autre utilisateur.
Dans les prochains jours, le nouveau modèle et les mises à jour deviendront accessibles à davantage de personnes, pour leur permettre de tester directement.
Laisser un commentaire
Annulez