La reconnaissance d’images, c’est-à-dire l’identification d’objets, d’animaux ou de tout autre élément d’une photo, est la tâche cognitive qui a montré la puissance d’un outil majeur de l’intelligence artificielle (IA) : l’apprentissage profond. En 2012, lors d’un défi informatique utilisant les 150 000 images de la base de données ImageNet, une équipe de l’université de Toronto (Canada), menée par Geoffrey Hinton (parti ensuite chez Google), commet environ 15 % d’erreurs, soit deux fois moins que ses concurrents et deux fois mieux qu’en 2010. Au dernier concours, en juin 2017, le taux d’erreurs est tombé à 2 %.
Ces techniques très performantes sont des algorithmes comportant des dizaines de millions de paramètres ajustables. Comme un peintre mélange plusieurs couleurs jusqu’à obtenir la teinte qu’il souhaite, le système informatique cherche les paramètres susceptibles de l’aider à reconnaître les bons objets dans une image. Pour y parvenir, il s’entraîne sur des images annotées préalablement par des humains, indiquant par exemple la présence d’un chat persan, d’un panda, d’une orque… La structure du programme ressemble à un réseau de neurones, dont les connexions se renforcent ou s’affaiblissent en fonction des stimuli reçus.
Depuis la victoire de l’équipe Hinton en 2012, le concept d’apprentissage profond s’est répandu au point de se confondre avec la notion d’intelligence artificielle, qui recouvre pourtant d’autres sujets, comme la robotique. Dans le domaine visuel, il aide à l’identification des objets, y compris dans des vidéos, ce qui permet par exemple de légender des photos de façon automatique ou de nourrir les logiciels de pilotage des voitures autonomes afin de distinguer la nature des obstacles.
Le secteur de la santé a recours à ce genre de technique pour aider et accélérer les diagnostics. Plusieurs études ont même montré la supériorité de la machine sur des professionnels pour repérer des...
Lire la suite : Que savent vraiment faire les algorithmes ?