Les neurones artificiels peuvent-ils servir de modèle pour comprendre les vrais neurones ? GDJ/Pixabay
L’IA pourrait-elle avoir des crises d’épilepsie ?
Damien Depannemaecker, Aix-Marseille Université (AMU) et Léo Pio-Lopez, Tufts UniversityDepuis quelques années, intelligence artificielle (IA, ou AI en anglais), apprentissage machine (machine learning), « réseaux de neurones artificiels » (artificial neural network) et « apprentissage profond » (deep learning, ou DL) sont de plus en plus présents dans nos quotidiens. Ces termes recouvrent des méthodes, des techniques, des processus qui nous permettent de faire effectuer à des machines des tâches dites complexes comme reconnaître des images, conduire une voiture, ou mener une conversation avec un humain.
Des tâches au cours desquelles il serait facile a priori de comparer intelligence artificielle et « naturelle » – humaine.
Or, à force de rapprochement, nous avons tendance à considérer certains de ces outils, les réseaux de neurones artificiels en particulier, comme des modèles de notre propre cerveau – et les capacités du deep learning comme des modèles de ses fonctions… Mais est-ce que, parce qu’une machine est capable de réaliser des tâches similaires à celles effectuées par notre cerveau, elle peut en être un modèle ?
Prenons une analogie pour une tâche simple : trier des pièces de monnaie. Il existe des machines purement mécaniques qui en sont parfaitement capables. Nous sommes, nous, humains, tout aussi capables de trier des pièces de monnaie… Va-t-on apprendre quelque chose de nous sur notre capacité à trier des pièces en observant de telles machines ?
La question se pose à un autre niveau avec l’IA. Les réseaux de neurones artificiels sont, comme leur nom l’indique, inspirés par des connaissances acquises en neurosciences. Et ils partagent quelques caractéristiques avec nos cellules nerveuses. Notre question est donc plutôt : jusqu’où peut aller la comparaison ?
Quelles sont les limites de ces « modèles » ? Sont-ils suffisamment proches pour être utilisable en neurologie ou en santé mentale ?
Ce qu’est un neurone artificiel
Le modèle de neurone (ou « nœud » en apprentissage automatique) utilisé dans le deep learning n’a rien de physique : il s’agit d’un ensemble d’étapes mathématiques effectuées dans un ordinateur. Un nœud reçoit des données, externes ou provenant de nœuds précédents, qui sont pondérées (multipliées) par leur « poids synaptique », une valeur quantifiant l’importance accordée à chaque donnée.
De façon similaire, dans notre cerveau, un neurone reçoit des données par ses « synapses », ses points de contact avec les neurones voisins. Selon son « poids », chaque synapse aura plus ou moins d’effet sur le neurone en question. Toutes les entrées que ce dernier reçoit sont ainsi pondérées, et il va s’activer, ou non, en fonction du résultat global.
Il y a un mécanisme similaire dans les réseaux de neurones artificiels. La valeur obtenue en sortie d’un nœud peut être utilisée comme valeur d’entrée pour le nœud suivant. Au cours de leur apprentissage, certains neurones vont peu à peu se spécialiser dans certains types d’entrées quand d’autres seront plus sensibles à d’autres. Cette description suffit à reproduire un aspect « fonctionnel » du traitement des informations entrantes par un neurone. Ce modèle de neurone dit « formel » a été décrit pour la première fois en 1943.
Une fois constituées en réseau pour une application particulière, les règles d’apprentissage d’un modèle déterminent l’évolution des poids synaptiques. Plusieurs méthodes permettent de conduire l’apprentissage pour une tâche donnée, comme la rétropropagation de l’erreur (méthode historique datant des années 1980) ou le calcul évolutionnaire (qui repose sur les mêmes principes que l’évolution biologique par mutation/sélection).
Ces modèles sont capables « d’apprendre », de résoudre des problèmes ou d’effectuer des tâches dont nous sommes capables, parfois même mieux que nous en termes de rapidité – pour des tâches simples comme complexes (reconnaissance de formes, visages, prédiction de conformation de protéines ou interprétation du langage et de textes avec ChatGPT, etc.).
Du modèle de neurone au modèle du cerveau ?
Si ces modèles partagent certains modes de fonctionnement avec notre cerveau, en partagent-ils aussi d’autres aspects, notamment pathologiques ?
L’épilepsie, très étudiée, est un exemple intéressant sur lequel nous nous sommes penchés dans une étude récente.
Physiquement, elle affecte l’activité du cerveau qui, durant les crises, est à son paroxysme de façon incontrôlée : les neurones sont proches de leur activité maximale et de manière assez synchronisée. Si ces crises envahissent tout le cerveau (crise généralisée), celui-ci devient incapable de traiter de l’information. La personne touchée est inconsciente durant la crise, ne répond plus aux stimuli extérieurs, et n’aura pas de souvenir de l’événement.
Il serait tentant de penser que, dans les réseaux de neurones artificiels, en apprentissage profond, un état équivalent à une telle crise correspondrait à avoir tous les nœuds à un niveau d’activation poussé à leur maximum en même temps. Une telle implémentation physique pourrait-elle représenter l’épilepsie, correspondant au fait que le système électrique sature ?
Ce n’est pas si simple.
Si l’on veut pousser loin la comparaison entre ces deux systèmes complètement différents (crises cérébrales et « crises numériques »), il faut rappeler leurs spécificités réciproques :
Dans le cerveau, les crises sont un phénomène dynamique et peuvent se propager et la communication synaptique peut ne plus être en mesure de fonctionner. Dans un réseau artificiel, un tel phénomène n’est pas concevable.
Dans un réseau, un tel niveau d’activation n’est qu’un état possible parmi d’autres et il ne présente aucun aspect « pathologique ». Cette suractivation générale n’est pas problématique, car il ne s’agit que de valeurs numériques et elle n’affecte pas le fonctionnement de l’ordinateur : il y a toujours échange d’informations – il y a juste un risque d’erreur possiblement accru pour une tâche donnée. Le modèle ne peut pas avoir de « convulsions » comme un humain, il ne peut pas être dépassé par un flot d’informations.
Ces deux éléments semblent ainsi empêcher toute comparaison entre un réseau de neurones et un cerveau biologique. Les réseaux de neurones artificiels utilisés dans l’intelligence artificielle sont capables de reproduire des fonctions du cerveau (capacité à réaliser une tâche particulière), mais pas l’activité (électrophysiologique) sous-jacente à ces fonctions.
La différenciation entre normale et pathologique dans les crises d’épilepsie humaines n’est donc pas transposable à la question du normal et du pathologique dans les réseaux de neurones artificiels implémentés dans ces algorithmes.
Il existe cependant des modèles de la dynamique de crise basés sur d’autres types d’approches, notamment des systèmes dynamiques. Ils sont cette fois construits dans le but d’étudier l’activité cérébrale associée à ces crises.
« Être » ou « faire » : c’est l’un ou l’autre
On distingue donc différents niveaux de description selon les types de modèles considérés… Certains reproduisent une fonction ou une activité ; d’autres sont capables d’expliquer la dynamique des crises, mais ils ne sont généralement pas adaptés pour réaliser des tâches spécifiques comme ceux utilisés dans l’IA. C’est l’un… ou l’autre ! (Pour le moment.)
Les modèles peuvent soit essayer d’être au plus proche du phénomène considéré (par exemple l’apprentissage, la mémoire ou les crises d’épilepsie) sans se préoccuper des mécanismes biophysiques permettant son émergence… Ou, au contraire, ils peuvent être conçus pour essayer de fournir une description de la physiologie la plus détaillée possible à l’échelle considérée (ions, molécules, cellules, etc.).
Suivant les objectifs que l’on a (enseigner, expliquer, découvrir de nouveaux aspects, comprendre, prédire ou autre), on choisira ou construira un type de modèle adapté. Pour cela, il est intéressant d’étudier plus profondément ce que nous apporte chaque modèle en termes de connaissance ou d’application.
Mais, pour l’heure, il n’existe pas de modèle capable de reproduire l’ensemble des aspects du cerveau… à part le cerveau lui-même.
Damien Depannemaecker, Chercheur post-doctorat, Institut de Neuroscience des Systèmes, INSERM, Aix-Marseille Université (AMU) et Léo Pio-Lopez, Postoctoral researcher in AI and ALife, Allen Discovery Center, Tufts University
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.