Programmation malveillante, limites que l’intelligence artificielle finira par désinstaller, manipulation de l’humanité... quelques scénarios déplaisants mais fort possibles sur la façon dont l’IA se défera de nous.
Les plus connectés auront suivi de près l’échec du bot Microsoft, fin mars dernier. Moins de 24 h après son lancement, Microsoft doit faire taire de force Tay, un agent conversationnel programmé pour dialoguer automatiquement avec les utilisateurs, principalement via Twitter.
Quelques heures auront suffi pour faire totalement déraper le robot. Peut-être le premier burn out public d’une machine.
Même si le traitement médiatique de l’événement l’a minimisé (et a détourné l’attention des vrais responsables), n’hésitons pas à être gentiment provocateurs : Microsoft qui perd le contrôle de son intelligence artificielle, ce n’est rien de moins que l’annonce d’une fin du monde imminente.
L’IA, c’est plus fort que toi
Le principe de l’intelligence artificielle dans sa tendance actuelle (deep learning) est la production par une machine de ses propres données. L’idée est que la machine n’est pas simplement programmée pour effectuer des calculs en fonction de paramètres prédéterminés.
Elle est programmée pour apprendre, puis agir et interagir en fonction de son apprentissage. Un bot comme Tay est pensé pour la communication avec des humains, mais l’IA s’applique à des champs d’action beaucoup plus vastes : elle participe déjà à la gestion de robots mobiles, d’objets connectés ou d’infrastructures.
Le concept est formidable : associées au génie humain, ces machines apprenantes permettent de résoudre des problèmes bien trop complexes pour les compétences logiques de nos plus grands cerveaux, même associés.
On peut aller plus loin. Si des machines animées par une intelligence artificielle sont capables de progresser par elles-mêmes, il n’y a aucune raison qu’elles ne soient pas rapidement supérieures à l’humain. C’est ici que la peur s’invite...
« Specifically, if AI could become “superintelligent”, outsmarting humanity across a wide range of domains, then humanity could lose control of the planet to the AI. »
(« En particulier, si l’IA pouvait devenir “superintelligente”, dépassant l’humanité dans nombre de domaines, alors l’humanité pourrait perdre la maîtrise de la planète au profit de l’IA »)
Global Catastrophic Risk Institute
Les seules limites à l’apprentissage et aux initiatives d’une machine sont celles imposées initialement par son créateur avant sa mise en route ? qu’on pourrait appeler éducation de la machine ? et la possibilité d’intervenir pour l’empêcher d’agir si les choses tournent mal.
Contrôler une IA revient à :
- s’assurer que les limites fixées au départ soient suffisantes et respectées,
- s’assurer de pouvoir prendre le dessus sur la machine si cela dérape malgré tout, en repassant en pilotage manuel ou en appuyant sur un bouton off.
Or c’est bien simple : ces défis sont bien trop grands pour de petits humains comme nous. Nous allons perdre le contrôle. Voilà pourquoi l’intelligence artificielle ? à qui nous commençons à confier nos systèmes d’informations, nos centrales nucléaires, nos armes autonomes ? va tout faire péter....
Lire la suite : Comment l’intelligence artificielle va éradiquer la race humaine (4 scénarios festifs)
Articles en Relation
De Paris aux Highlands écossais, voyage au pays du silence
Image de rawpixel.com sur Freepik
De Paris aux Highlands écossais, voyage au pays du silence
Les Highlands écossai...