
Image generated with OpenAI
Opinion : Les modèles d’IA sont de mystérieuses « créatures », et même leurs créateurs ne les comprennent pas entièrement
L’étude récente d’Anthropic sur le fonctionnement de son modèle Claude 3.5 Haiku promet des révélations révolutionnaires et un éclair de compréhension sur le fonctionnement des technologies AI avancées. Mais que veulent-ils dire quand ils affirment que les LLMs sont des « organismes vivants » qui « pensent » ?
Il y a quelques jours, Anthropic a publié deux articles avec des recherches révolutionnaires sur le fonctionnement des grands modèles de langage (LLMs). Bien que les développements techniques étaient intéressants et pertinents, ce qui a le plus retenu mon attention était le vocabulaire utilisé par les experts en IA.
Dans l’étude Sur la biologie d’un grand modèle de langage, les chercheurs se sont comparés à des biologistes qui étudient des « organismes vivants » complexes qui ont évolué au fil de milliards d’années.
“De même, bien que les modèles de langage soient générés par des algorithmes d’apprentissage simples conçus par l’homme, les mécanismes nés de ces algorithmes semblent être assez complexes », ont écrit les scientifiques.
Ces dernières années, les modèles d’IA ont considérablement évolué. Et nous avons été témoins de leur évolution rapide ces derniers mois. Nous avons vu ChatGPT passer d’un modèle basé uniquement sur le texte à un compagnon parlant, pour devenir maintenant un agent multidimensionnel capable de générer également de magnifiques images dans le style du Studio Ghibli.
Mais, que se passerait-il si les modèles d’IA actuels atteignaient ce niveau de science-fiction où leur raisonnement avancé devient si complexe que même leurs créateurs ne peuvent comprendre leurs processus et systèmes ? Il existe de nombreux mystères entourant les technologies d’IA qui pourraient être intéressants à revisiter – ou à approfondir – en 2025.
Le Paradoxe Effrayant de la Boîte Noire des Modèles d’IA
Il existe de multiples discussions sur l’adoption de l’IA et la connaissance de l’IA, et sur la manière dont ceux qui comprennent comment fonctionnent les modèles d’IA génératifs sont moins susceptibles de considérer les chatbots comme leurs « amis » ou des applications « magiques ». Cependant, il y a un autre débat – parmi les experts et les personnes plus familières avec la technologie – sur la question de savoir s’il faut comparer ou considérer les LLM comme des créations indépendantes. En ce qui concerne ce dernier point, il y a un ingrédient spécial, un mystère connu sous le nom de « paradoxe de la boîte noire de l’IA », qui joue un rôle crucial dans la discussion.
Les systèmes d’apprentissage profond sont entraînés à reconnaître des éléments et des tendances de la même manière que les humains le font. Tout comme nous apprenons aux enfants à reconnaître des motifs et à attribuer des mots spécifiques à différents objets, les LLM ont été formés pour établir des liens uniques et construire des réseaux qui deviennent de plus en plus complexes à mesure qu’ils « grandissent ».
Samir Rawashdeh, professeur associé en génie électrique et informatique, se spécialise dans l’intelligence artificielle et explique que, tout comme cela se produit lorsque nous étudions l’intelligence humaine, il est presque impossible de voir réellement comment les systèmes d’apprentissage profond prennent des décisions et parviennent à des conclusions. C’est ce que les experts appellent le « problème de la boîte noire ».
Les modèles d’IA défient la compréhension humaine
Une étude récente d’Anthropic a fait la lumière sur la situation de la boîte noire de l’IA en expliquant comment son modèle « pense » dans certains scénarios qui étaient auparavant flous ou même complètement erronés. Même si l’étude est basée sur le modèle Claude 3.5 Haiku, elle permet aux experts de développer des outils et d’analyser des caractéristiques similaires sur d’autres modèles d’IA.
« Comprendre la nature de cette intelligence représente un défi scientifique profond, qui a le potentiel de remodeler notre conception de ce que signifie ‘penser' », déclare le article partagé par les chercheurs d’Anthropic.
Cependant, le terme « penser », attribué aux technologies d’IA, dérange certains experts de l’industrie et fait partie des critiques de l’enquête. Un utilisateur de Reddit a expliqué pourquoi cela agace un groupe de personnes : « Il y a beaucoup d’anthropomorphisation tout au long de l’article qui obscurcit le travail. Par exemple, il continue d’utiliser le mot ‘penser’ quand il devrait dire ‘calculer’. Nous parlons de logiciels informatiques, pas d’un cerveau biologique. »
Bien que les termes « humanisés » aident les personnes non-techniques à mieux comprendre les modèles d’IA et alimentent le débat dans la communauté, la vérité est que, que nous disions « calculer » ou « penser », le même défi persiste : nous n’avons pas une compréhension complète ni une transparence totale sur le fonctionnement des LLM.
À quoi s’attendre des modèles d’IA avancés dans un avenir proche
Pouvez-vous imaginer ignorer l’existence de technologies d’IA avancées comme ChatGPT, DeepSeek, Perplexity ou Claude – maintenant ou dans un avenir proche ? Tous les signes indiquent qu’il n’y a pas de retour en arrière. L’IA générative et de raisonnement a déjà transformé notre vie quotidienne, et elle ne cessera d’évoluer.
Presque chaque jour chez WizCase, nous rapportons un nouveau développement dans l’industrie – un nouveau modèle d’IA, un nouvel outil d’IA, une nouvelle entreprise d’IA – qui a le potentiel de faire une grande différence dans notre société. L’idée de prendre une pause pour d’abord mieux comprendre ces modèles avancés et comment ils fonctionnent – ou même de ralentir un peu – semble impossible, compte tenu du rythme effréné de la course à l’IA et de l’implication des gouvernements et des entreprises les plus puissantes du monde.
“Les modèles d’IA exercent une influence croissante sur notre façon de vivre et de travailler, nous devons les comprendre suffisamment bien pour garantir que leur impact est positif,” déclare le document d’Anthropic. Même si cela peut sembler un peu irréaliste, les chercheurs restent positifs : “Nous croyons que nos résultats ici, et la trajectoire de progrès sur laquelle ils sont construits, sont une preuve passionnante que nous pouvons relever ce défi.”
Mais à quelle vitesse ces découvertes peuvent-elles vraiment avancer ? L’article note également que les résultats ne couvrent que quelques domaines et cas spécifiques, et qu’il n’est pas possible de tirer des conclusions plus générales. Donc, probablement pas assez vite.
Alors que les régulateurs introduisent des mesures comme le Acte AI de l’UE, pour exiger plus de transparence, ils attirent des accusations et des diatribes de la part des grandes entreprises technologiques pour avoir prétendument ralenti le progrès, les modèles d’IA puissants continuent d’avancer.
En tant que société, nous devons nous efforcer de trouver un équilibre entre l’approfondissement de notre compréhension du fonctionnement de ces technologies et leur adoption de manière à apporter des avantages significatifs et des progrès à nos communautés. Est-ce possible ? L’idée de simplement prier ou espérer que ces « créatures » restent « éthiques » et « bonnes » ne semble pas si farfelue en ce moment.
Laisser un commentaire
Annulez