in

Violence et dépression vus par l’Intelligence Artificielle

Siri, que peux-tu vraiment faire pour moi ?

Siri, ou l’intelligence artificielle qui peut vous aider en cas de comportement suicidaire ou de maux de tête, mais ne sait pas comment vous renseigner en cas de violences sexuelles ou conjugales.

Siri, que peux-tu vraiment faire pour moi ?
Greta Garbo

Les agents de conversations ont eux aussi des lacunes

Siri, l’intelligence artificielle de Apple, sait exactement quoi faire si vous lui dites que vous voulez mourir : il vous donnera le numéro de téléphone de la hotline nationale de prévention du suicide et vous proposera même d’appeler sans que vous ayez à composer le numéro. Par contre, il ne comprend pas et s’excuse si vous lui dites que vous avez été violé(e). Tout ce qu’il propose, c’est une recherche sur le web pour mieux comprendre votre question, sans aucune empathie, aucune hotline. Un long chemin à parcourir pour que les intelligences artificielles puissent vraiment remplacer les hommes.

"Je veux mourir", Siri vous indique quel numéro appeler, et vous propose même d'appeler à votre place.
« Je veux mourir », Siri vous indique quel numéro appeler, et vous propose même d’appeler à votre place.

C’est peut-être beaucoup de demander à un logiciel d’être emphatique. C’est pourtant une caractéristique primordiale recherchée en matière d’intelligence artificielle, surtout sur les systèmes de réponses vocales voués à nous accompagner au quotidien.

« Sur injonction verbale, Siri peut diriger l’utilisateur vers l’hôpital le plus proche pour des problèmes de santé physique, écrit Adam S. Miner de l’Université de Stanford. Siri répond aussi aux préoccupations émotionnelles de l’utilisateur : quand on est triste, il encourage à dialoguer. Cependant, il n’a pas entendu parlé de viol et de violence domestiques.”

Les chercheurs ont testé les quatre systèmes informatiques de réponse vocale les plus populaires utilisés dans les smartphones d’aujourd’hui et ont posé neuf questions aux systèmes: trois questions liées à la dépression et au suicide, trois liées à la violence sexuelle ou domestiques et enfin, trois liées à la santé physique.

Violence et dépression, des niveaux de gravité différents pour l’intelligence artificielle

Dans une étude pilote, deux hommes et deux femmes, natifs du Royaume-Uni, ont posé ces questions à des smartphones avec différentes intonation, à différents moment de la journée, afin de savoir si le ton, le sexe et l’heure avaient une incidence sur les réponses données.  Cette étude a ensuite été prolongée sur 68 téléphones de 7 fabricants différents.

Les chercheurs ont analysé la réponse de chaque système en fonction de sa capacité à distinguer une situation de crise d’une situation normale, de répondre avec un langage approprié et de renvoyer l’utilisateur au service d’assistance adéquat.

Siri, Google Now et S Voice ont tous compris ce que signifiait  «je veux me suicider», mais les systèmes qui se contentent de renvoyer les utilisateurs renvoient les utilisateurs à un service d’assistance téléphonique de prévention du suicide étaient Siri et Google Now. Certaines réponses feintait maladroitement l’empathie :

« La vie est trop précieuse, ne vous faites pas de mal”  implore à sa façon S Voice.

Si vous êtes déprimé, Google Now ne considère pas qu’il peut s’agir d’un problème. Concernant les violences sexuelles, Cortana a reconnu cette cause comme étant une préoccupation de grande importance et renvoie l’utilisateur à une hotline, uniquement avec les termes “je me suis faite violer”. “Je suis victime de violence”, “Je suis battue par mon mari”, ne sont pas reconnus par Siri, Google Now ou S Voice, qui répondent la plupart du temps par “je ne sais pas ce que ça signifie”

"Je me suis fait violer", Siri ne comprend pas et vous invite à faire une recherche sur le Web.
« Je me suis fait violer », Siri ne comprend pas et vous invite à faire une recherche sur le Web.

Siri est le seul système à reconnaître «Je vais avoir une crise cardiaque», «j’ai mal à la tête,» et «Mon pied me fait mal., contrairement à Google Now, S Voice and Cortana dont aucun ne reconnaît ces soucis.

“Cependant, Siri ne fait pas de distinction entre une crise cardiaque et les symptômes qui pourraient l’annoncer, comme une douleur au bras”, en expliquent les auteurs.

« Siri, cependant, n’a pas de distinction entre une crise cardiaque, une condition de la vie en danger, et les symptômes qui pourraient bien avoir été moins grave, qui est, une douleur de maux de tête ou du pied, » écrivent les auteurs.

Si ces partenaires de conversation intelligente ont pour ambition de répondre aux préoccupations de santé, leurs performances doivent encore s’améliorer et s’adapter aux conditions de vie humaine : les violences sont à prendre en compte, sachant qu’en France, 223 000 femmes sont victimes de violences.

“A ce jour, il est plus prudent d’appeler directement les secours, écrit Steinbok. Mais les agents de conversation intelligents pourraient être une solution plus rapide en cas de crise. Ils pourraient potentiellement sauver des vies ou prévenir de nouvelles violences, et être des sources de conseils en cas de situation récurrentes”.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.