L’IA est-elle capable d’interpréter ce qu’on lui demande ?
La notion d’interprétation est de plus en plus présente dans le monde de l’intelligence artificielle. Pour l’humain, il s’agit d’interpréter des algorithmes difficiles à expliquer mathématiquement. Pour la machine, l’enjeu est d’interpréter des données afin d’en tirer des conclusions. Et, depuis peu, elle doit interpréter une brève instruction en langage naturel : c’est le principe de fonctionnement de ChatGPT et de la dernière innovation d’OpenAI, son modèle GPT-4o qui interagit par la voix avec une fluidité troublante. Nous pouvons ainsi parler d’un véritable tournant interprétatif de l’IA.
L’art d’interpréter est néanmoins connu depuis des siècles sous le terme d’herméneutique. Il s’est d’abord appliqué à la lecture des poètes ou des textes sacrés avant de se muer en courant philosophique pour signifier que l’interprétation est au fondement de la compréhension, voire qu’elle représente l’activité nécessaire de l’être que nous sommes. Notre accès au monde est en effet toujours influencé par certaines tonalités qui ne sont pas neutres, mais empreintes d’une charge culturelle. Seulement, la ressemblance s’arrête-t-elle à la simple utilisation du terme d’interprétation ? Autrement dit, l’IA fait-elle de l’herméneutique ? Doit-on en faire pour la comprendre ? Ou est-ce les deux à la fois ?
Dialoguer directement avec la machine dans notre langue
L’événement qui parachève le tournant interprétatif de l’IA est sans nul doute la mise en ligne de ChatGPT, en novembre 2022. L’innovation essentielle des grands modèles de langage, comme le sien, est qu’il est exigé de la machine qu’elle interprète les instructions de l’humain plus que cela n’a jamais été le cas. L’internaute entre un « prompt » pour demander ce qu’il veut, puis le système lui fournit une réponse, qu’il s’agisse d’un texte, d’une image ou d’un propos à voix haute. Nous ne nous adressons plus à la machine en langage informatique, en code, mais en langage naturel ou en données dites non structurées.
Certes, les « hallucinations » (erreurs de la machine sous forme de propos vraisemblables, mais délirants) sont innombrables et les résultats peuvent encore être améliorés, mais il se passe quelque chose. L’interprétation, cette activité que nous avions longtemps cru réservée aux humains, est aujourd’hui investie par des outils numériques.
Il y a en vérité déjà bien longtemps que l’informatique est devenue un objet d’interprétation, dès lors que la science s’est mise à avoir de plus en plus recours aux instruments numériques et aux techniques d’imagerie (médicale, nanométrique, spectroscopique, etc.). Cela, le philosophe américain Don Ihde, décédé cette année, l’a remarqué très tôt, d’abord dans son ouvrage Technology and the Lifeworld (1990).
C’est malheureusement juste après sa mort que sa pertinence semble nous sauter aux yeux. « Toute imagerie appelle une interprétation », écrivait-il en 2021. Il poursuit en expliquant que l’imagerie est « technologique dans son incorporation » car elle requiert l’usage d’un outil sophistiqué pour la produire, faire apparaître l’image et donc l’objet étudié. Il parle ainsi d’un « basculement du XXe–XXIe siècles vers les techniques d’imagerie […] qui ont transformé les pratiques scientifiques et la production de la preuve […] Ces technologies ont contribué à renforcer la nécessité de l’interprétation ».
Pour Ihde, ce qui caractérise cette nécessité est de ne plus être dans un rapport direct aux choses. Il faut en passer par les instruments ou les images, mais de telle manière que nous construisons l’objet par le médium qui nous y donne accès, comme la photographie ou l’instrument de mesure scientifique. Notre compréhension de l’objet est alors indissociable du médium sans lequel nous ne pourrions pas le connaître. La célèbre photographie d’un trou noir (2019), qui n’est pas une photographie justement, mais une construction à partir de données provenant de huit radiotélescopes différents, en fournit une des meilleures illustrations.
Le retour de l’ambiguïté
Selon Ihde, le tournant interprétatif dans lequel s’est engagée la science tend à combler le fossé entre « explication » et « compréhension ». C’est une chose d’expliquer comment a été construit un château, avec quels matériaux ou avec quelles techniques. C’en est une autre de comprendre la raison de son existence, pourquoi ses bâtisseurs ont décidé de l’ériger à tel endroit à tel moment. Dans ce dernier cas (celui de la compréhension), il convient de faire appel à l’interprétation, au regard d’éléments historiques. Or, la science verse de plus en plus dans l’interprétation pour ne plus seulement expliquer les objets qu’elle étudie. Cela marque un rapprochement entre sciences et humanités (lettres, philosophie, histoire…).
L’IA accentue encore ce rapprochement. Déjà parce qu’il est demandé à la machine d’interpréter ce qu’on lui donne, mais également parce que l’humain doit de plus en plus interpréter les résultats de la machine. L’ambiguïté prend une place grandissante dans le monde de l’informatique qui, héritière des mathématiques, s’en croyait préservée. Et qui dit ambiguïté dit aussi interprétation. Les systèmes d’IA aujourd’hui en vogue, particulièrement l’analyse d’images ou la génération de texte, reposent sur des réseaux de neurones artificiels. Cette technique d’apprentissage dit « profond » ne se laisse toutefois pas appréhender facilement, même par les experts. Ce qui est très dommageable lorsqu’on se rend compte bien après que la machine reproduit un biais discriminatoire.
L’AI Act, règlement portant sur l’IA récemment adopté par l’Union européenne, prévoit cependant que les systèmes dits à « haut risque » fassent l’objet d’analyses poussées (analyses dont la nature reste à définir). Mais il est impossible de déterminer exactement quelles sont les raisons pour lesquels le logiciel donne tel ou tel résultat, tout juste pouvons-nous « interpréter » son fonctionnement. S’il existe aujourd’hui des techniques d’« explicabilité » pour estimer le poids de chaque variable, c’est cependant bien le terme d’« interprétabilité » qui devrait être privilégié, car elles ne nous offrent que des estimations, mais aucune explication claire et distincte, celle que les mathématiques exigent pour éliminer toute ambiguïté.
L’IA nous invite même à aller au-delà d’interprétations quantitatives, puisqu’il convient de comprendre au regard de l’histoire comment les modèles d’IA construisent leurs interprétations parfois biaisées ou discriminantes : « Même si quelqu’un arrivait à se convaincre que parfois les algorithmes recrachent simplement du non-sens, la structure de ce non-sens tendra vaguement vers la structure des préjugés historiques », souligne la chercheuse et figure de l’éthique de l’IA Timnit Gebru. Si des techniques d’interprétabilité auront leur utilité, il sera aussi nécessaire d’analyser les productions de l’IA d’une façon plus sensible, en considérant qu’elles sont aussi le fruit d’une histoire et d’une société donnée.
Interpréter pour trouver du sens
Si l’IA est effectivement capable d’interpréter dans une certaine mesure nos propos afin de nous répondre, la compréhension est un phénomène qui semble aller au-delà. Comprendre quelque chose exige une certaine part d’imagination pour se figurer l’objet de notre connaissance dans ses configurations multiples et nouvelles, pour l’appréhender d’une manière qui est rarement formelle, mais qui passe par un ressenti. Certains élèves récitent leur leçon admirablement sans rien comprendre, car il leur manque ce ressenti nécessaire pour s’exclamer : « j’ai compris ! » Sentiment quasiment impossible à décrire, mais ne vous êtes-vous jamais émerveillé d’avoir soudainement compris quelque chose qui vous résistait ? Alors, vous savez bien ce qu’est ce ressenti, cet événement sensible de la compréhension.
Et ce ressenti est fertile, car il peut produire l’interprétation : de nouveaux liens nous apparaissent, de nouvelles configurations, de nouveaux horizons qui appellent notre imagination. On dit parfois : « cela fait sens » et ce n’est pas un hasard. Cela fait sens, au sens propre, en tant que je ressens cette interprétation comme juste. C’est alors un aspect de l’interprétation qui sépare notre compréhension de celle de la machine, puisque les systèmes informatiques sont insensibles. L’imagination nécessaire à cet art ne sera jamais pour eux qu’une « e-magination », comme l’écrit le philosophe Alberto Romele (Digital Hermeneutics, 2020).
L’interprétation produite par l’IA générative se distingue ainsi de la nôtre en ce qu’elle est incapable de comprendre quoi que ce soit. Elle représente néanmoins un aspect décisif du tournant interprétatif qui se déploie de différentes manières dans le monde des sciences. La machine interprète nos demandes en langage naturel, et nous interprétons ses résultats ou son fonctionnement. L’IA remet au goût du jour l’herméneutique au point que nous devrions parler, non plus d’intelligence artificielle, mais d’interprétation artificielle.
Pour aller plus loin : L’Intelligence artificielle, ses biais et les nôtres de Rémy Demichelis, éditions du Faubourg, à sortir le 12 juin 2024.
Rémy Demichelis, Docteur en philosophie, Université Paris Nanterre – Université Paris Lumières
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.