Le réseau social a annoncé mercredi 1er mars la mise au point d'une intelligence artificielle pour prévenir les suicides. Avec quels enjeux ?
Facebook a pris une place immense tant dans la société civile que dans la sphère privée des individus. Il y a un an, dans le cadre de Facebook Compassion (une cellule dédiée au bien-être des usagers), il lançait une fonctionnalité permettant aux utilisateurs de mieux gérer leurs ruptures amoureuses et leur proposait un accompagnement.
Avec plus d’un milliard d’utilisateurs, Facebook a compris qu’il était devenu un véritable espace public, et considère qu'il doit assumer d’y assurer l’ordre, mais aussi la sécurité.
Les équipes de Facebook se voient maintenant obligées de prendre position sur beaucoup de sujets : les catastrophes naturelles et attentats (avec le SafetyCheck), les fake news, le harcèlement... et maintenant le suicide.
Parce qu’un post peut être la nouvelle lettre de suicide, le réseau social veut (grâce à une intelligence artificielle) reconnaître les comportements à risques et prévenir les passages à l’acte.
Lorsque l’algorithme trouverait un utilisateur à risque, le réseau lui afficherait un message proposant de chercher de l’aide auprès d’un ami ou d’une instance.
Collecte de données vertigineuse
Pour Me Valérie Sédallian, avocate spécialisée en droit de l'informatique et de l'Internet, l'objectif est légitime : “Quand on peut empêcher un suicide, on a une responsabilité.” Rappelons que le suicide est la deuxième cause de mortalité chez les moins de vingt ans, qui n’ont pas peur de s’exposer sur Facebook.
Cependant, selon l’avocate, l’initiative pose des questions beaucoup plus sérieuses : la surveillance de masse que cela induit.
“On se croirait dans 'Minority Report', où l’on parvient à détecter les agissements avant même le passage à l’acte. La réalité rejoint la fiction.”
Mais surtout, elle remarque que cela exacerbe encore un peu plus la collecte d'information personnelles par ces grandes sociétés américaines.
“C’est vertigineux le nombre de données qu’il faudrait pour ça.”
En effet, comment déterminer le risque chez une personne de se suicider ? “Il faudrait tracer tout ce qu’on fait, avec qui on interagit…” Facebook ne s’intéresse pas seulement à ce qu’on poste : il regarde aussi ce qu’on like, avec qui on est amis, notre messagerie privée... L'algorithme analyserait aussi le vocabulaire d’un utilisateur pour repérer les éléments de langage qui traduisent un état dépressif ou suicidaire....
Lire la suite - Facebook récolte vos données pour votre bien