in

eXplainable AI, c’est quoi exactement ?

eXplainable AI

eXplainable AI signifie que les humains peuvent comprendre le chemin suivi par un système informatique pour prendre une décision. L’expression « IA explicable » ou « IA interprétable » fait référence aux humains capables de comprendre facilement, par le biais de graphiques générés dynamiquement ou de descriptions textuelles, le chemin suivi par la technologie d’intelligence artificielle pour prendre une décision.

L’eXplainable AI : définition en en langage clair

Le terme eXplainable AI peut signifier ‘montrer son travail’ dans un problème de mathématiques. Tous les processus décisionnels de l’IA et le machine learning ne se déroulent pas dans une boîte noire. Il s’agit d’un service transparent, construit avec la capacité d’être disséqué et compris par des praticiens humains. Pour ajouter une « explication » à la sortie, il est essentiel d’ajouter une cartographie des entrées/sorties.

Selon Phani Nagarjuna, directeur de l’analytique, Sutherland, « L’IA explicable est celle où nous pouvons interpréter les résultats de l’IA tout en étant capable de remonter clairement, des résultats aux entrées, sur le chemin que l’IA a pris pour arriver aux résultats. » -.

pcloud

Il s’agit d’une « application d’apprentissage automatique ou d’intelligence artificielle qui s’accompagne d’un raisonnement facilement compréhensible sur la façon dont elle est arrivée à une conclusion donnée. Que ce soit par une conception préemptive ou une analyse rétrospective, on utilise toujours de nouvelles techniques pour rendre la boîte noire de l’IA moins opaque. C’est ce qu’indique de son côté Andrew Maturo, analyste de données, SPR

« En termes simples, l’IA explicable signifie une IA transparente dans ses opérations, de sorte que les utilisateurs humains seront en mesure de comprendre et de faire confiance aux décisions. Les organisations doivent se poser la question suivante : pouvez-vous expliquer comment votre IA a généré cet aperçu ou cette décision spécifique ? » -Matt Sanchez, fondateur et directeur technique de CognitiveScale.

Pourquoi l’IA explicable est importante

Pourquoi est-ce important ? Les raisons sont innombrables et ont des implications potentiellement énormes pour les personnes, les entreprises, les gouvernements et la société.

Heena Purohit, chef de produit senior chez IBM Watson IoT, note que l’IA – qu’IBM appelle « intelligence augmentée » – et le machine learning font déjà un excellent travail pour traiter de grandes quantités de données de manière souvent complexe. Mais l’objectif de l’IA et du machine learning est d’aider les gens à être plus productifs. Ils les aident aussi à prendre des décisions plus intelligentes et plus rapides. 

L’eXplainable AI consiste, en quelque sorte, à faire en sorte que les gens fassent confiance et adhèrent à ces nouveaux systèmes et à la façon dont ils changent notre façon de travailler.

« Comme l’objectif de l’IA est d’aider les humains à prendre de meilleures décisions, l’entreprise réalise la véritable valeur de la solution d’IA lorsque l’utilisateur modifie son comportement ou prend des mesures en fonction des résultats [ou] des prédictions de l’IA« , explique M. Purohit. Cependant, pour qu’un utilisateur change son comportement, il devra faire confiance aux suggestions du système. Cette confiance s’établit lorsque les utilisateurs peuvent se sentir responsabilisés et savoir comment le système d’IA est arrivé à la recommandation [ou] au résultat.

Du point de vue du leadership organisationnel, l’IA explicable consiste, en un sens, à faire en sorte que les gens fassent confiance et adhèrent à ces nouveaux systèmes et à la façon dont ils changent notre façon de travailler.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *