Dans le grand débat sur les fake News et autres biais racistes ou antisémites proposés dans les résultats des moteurs de recherche, il y a un paramètre que je n’ai pas encore traité et qui est, pourtant, presque le plus évident. Il s’agit de la manière de poser la question.
Dans le dernier exemple qui défraya la chronique ( « l’holocauste a-t-il vraiment existé ? »), le fait que Google propose des sites négationnistes dans ses résultats de recherche est évidemment « cohérent » au regard de la question posée : les sites négationnistes sont en effet les seuls à poser ce genre de questions.
Est-ce que Google est raciste ?
Si l’on poursuit cette logique, il est également logique que Google (ou d’autres moteurs) affichent pléthore de résultats plus racistes les uns que les autres face à des requêtes comme « Est-ce que les noirs puent ? » ou « est-ce que les juifs sont radins ? ». Je ne parle pas ici de la fonctionnalité d’auto-complétion (le fait que Google « propose » de compléter un début de phrase comme « est-ce que les noirs » par « puent »), autre problème que j’avais déjà traité par ici.
Pour le dire plus brièvement, il est « naturel » – d’un point de vue algorithmique – que des questions reposant sur des postulats racistes ou négationnistes renvoient comme résultats prioritaires des sites racistes ou négationnistes.
Cela ne veut pas dire que c’est légitime, cela ne veut pas dire que la responsabilité de Google n’est pas engagée, cela veut juste dire que l’algorithme de Google n’a pas pour objet de faire de la médiation culturelle ou de l’éducation à la différence et à la tolérance.
Quiconque a une vie sociale un tant soit peu connectée aura nécessairement vécu plein de fois la scène où, dans une situation familiale ou professionnelle quelconque, quelqu’un pose une question à laquelle aucune des personnes présentes n’a la réponse, et où quelqu’un va donc aller poser cette question... à Google.
« Est-ce que tu viens pour les vacances ? »
Le plus souvent le moteur fait le job. Il s’agit de questions « factuelles » sur des dates, des personnalités, des faits, et le moteur nous affiche ou nous renvoie en général sur la page Wikipédia qui contient la réponse. Cet « habitus » social a eu, ces dernières années, une influence considérable sur notre manière d’interroger un moteur de recherche : nous ne nous contentons plus de lâcher 2 ou 3 mots-clés mais nous interrogeons le moteur « en langage naturel », nous lui posons les mêmes questions que nous poserions à un individu lambda dans un cadre conversationnel.
Deuxième effet Kiss Cool, la nature du processus de requêtage changeant (des phrases interrogatives complètes et parfois complexes plutôt qu’un simple alignement de mots-clés) cela permet également à l’algorithme du moteur de « s’affiner » et achève de transformer un moteur de recherche en moteur de réponses.
En plus de disposer d’un index inversé lui permettant d’associer des mots-clés de requêtes à des pages web, le moteur finit par disposer d’un index inversé de questions « préétablies » et des pages web de réponses correspondantes.
Ainsi les locutions « est-ce que » ou « quel est » se voient déjà associées à des inventaires à la Prévert de questions pré-formatées aux réponses pré-existantes.
Ainsi, lors de la formulation de questions aux postulats explicitement ou implicitement racistes, il est somme toute presque « normal » que la coloration générale des résultats les plus fréquemment associés soit également raciste. Même si, je le répète une nouvelle fois, cela n’exonère en rien Google de sa responsabilité.
Que demandent vraiment les gens ?
Les gens qui posent à Google la question « L’holocauste a-t-il vraiment existé » posent en fait une requête navigationnelle : ils sont avant tout à la recherche d’une confirmation de ce qu’ils sont déjà prêts à croire ou à accepter. Ainsi non seulement Google va leur proposer des résultats à la coloration raciste ou antisémite (pour s’accorder au postulat contenu dans la formulation de la question posée, postulat qui serait radicalement différent si l’on demandait, par exemple, « D’où viennent les théories négationnistes ? »), et ces résultats à la coloration raciste ou antisémite vont en plus, « mécaniquement » être chaque fois davantage surpondérés puisqu’ils sont aussi ceux les plus cliqués et indiquent donc à Google qu’ils sont ceux qui répondent le mieux à la requête.
Il y aurait un livre entier à écrire sur les résultats, variables, offerts en réponse à ces trois questions ainsi que sur les biais algorithmiques, linguistiques et cognitifs qu’ils véhiculent, traduisent et trahissent :
Lire la suite - Google, Google, pourquoi m’as-tu abandonné ?