
L’EPFL découvre des neurones du langage dans l’IA
20 mai 2025

À une époque de plus en plus marquée par les machines intelligentes, des chercheurs de l’EPFL se penchent sur le fonctionnement des modèles d’IA et y trouvent des schémas familiers. Dans une découverte qui brouille les frontières entre la cognition humaine et le calcul artificiel, ils ont identifié des unités spécifiques dans les grands modèles linguistiques (LLM) qui reflètent le réseau linguistique du cerveau.
Pendant des décennies, nous avons considéré l’intelligence artificielle comme une boîte noire, complexe, opaque et quelque peu différente. Mais ces nouvelles recherches menées par les laboratoires NeuroAI et NLP de l’EPFL suggèrent le contraire. À l’instar de notre propre cerveau, les LLM pourraient également posséder des réseaux de « neurones » spécialisés qui leur permettent de comprendre et de générer du langage. Et, comme nous, ils vacillent lorsque ces réseaux sont perturbés.
En s’inspirant des neurosciences, les chercheurs ont analysé 18 modèles linguistiques de pointe afin de déterminer s’ils contenaient des unités de traitement localisées et spécifiques à une langue. En appliquant des techniques traditionnellement utilisées pour cartographier les réseaux cognitifs humains, ils ont découvert que moins de 1% des unités du modèle (ce qui représente environ 100 neurones artificiels) sont essentielles au fonctionnement linguistique. La suppression de ces « unités sélectives de langage » a rendu les modèles presque incohérents.
Un miroir tendu à la machine… et à l’esprit
Cette révélation soulève des questions plus profondes. Si nous pouvons localiser le réseau linguistique d’un modèle, pouvons-nous faire de même pour le raisonnement ou la cognition sociale ? L’équipe de l’EPFL a utilisé des méthodes similaires pour étudier les fonctions associées à la théorie de l’esprit et aux réseaux à demandes multiples dans le cerveau humain. Certains modèles d’IA semblaient posséder ces grappes cognitives, tandis que d’autres n’en avaient pas.
Comment expliquer cette variation ? Est-ce dû aux données d’entraînement, à l’architecture du modèle ou à quelque chose de plus insaisissable ? Pour l’instant, les réponses restent inconnues. Mais ces questions ouvrent la voie à un avenir où nous pourrions mieux comprendre non seulement le fonctionnement des esprits artificiels, mais aussi celui de notre propre esprit.
L’équipe prévoit ensuite d’étudier des modèles multimodaux qui traitent simultanément le langage, la vision et le son. Si ces systèmes développent également une spécialisation similaire à celle du cerveau, ils pourraient devenir des outils puissants pour comprendre la perception, les maladies et la nature même de la conscience.
À mesure que les machines évoluent pour refléter l’architecture de l’esprit humain, nous nous approchons d’un renversement profond, où la clé pour nous comprendre nous-mêmes pourrait ne pas résider dans la biologie, mais dans les circuits de nos propres créations. En décodant l’intelligence artificielle, nous commençons à entrevoir les profondeurs cryptées de la pensée humaine. À ce seuil entre le code et la conscience, ces chercheurs de Suisse occidentale ne se contentent pas d’affiner la technologie, ils dévoilent une nouvelle frontière où les neurosciences et l’intelligence artificielle convergent pour éclairer les mystères de l’esprit et de la machine, ouvrant ainsi la voie vers l’inconnu.