ENTRETIEN. Avec la montée en puissance, technologiquement et médiatiquement, de l’intelligence artificielle, la terme de "confiance" est presque aussi en vogue que "éthique" ou "responsable". Des programmes de recherches se montent spécifiquement sur le sujet : Confiance.AI en France, Themis 5.0 en Europe, institut ANITI à Toulouse, pour essayer de comprendre des technologies au fonctionnement encore trop opaque. Car comment s'en remettre à des machines dont on ne maîtrise pas le fonctionnement ? Explications avec Fabien Gandon, directeur de recherche Inria, responsable de l'équipe Wimmics (Inria/Université Côte d’Azur/CNRS) et représentant d'Inria au W3C.
Fabien Gandon : Cette question se posait avant. Lorsque les systèmes à base de règles commençaient à avoir de grosses bases de règles, cela devenait difficile à lire pour un humain. Donc d’expliquer, de résumer de façon suffisamment ergonomique ce qui s’était passé dans un ensemble de règles pour qu’un utilisateur décide de suivre ou non le résultat.
Mais au moins, la machine était programmée pour faire des choses selon des règles que l’on maîtrisait. Avec les méthodes d’apprentissage, c’est la machine qui apprend des règles à partir d’exemples et de données. On a ajouté de l'opacité. On n’est pas forcément capables de comprendre à tout instant ce que la machine a réellement appris et ce qu’elle fait réellement.
"Une IA peut nourrir d’autres systèmes et avoir des effets en cascade"
La première chose, c’est savoir si je peux prendre la réponse donnée par l’algorithme et ce que je peux en faire. Mais ce n’est pas suffisant. Il faut savoir comment cette réponse a été obtenue, si les données sont bonnes, ou biaisées, ou erronées.
Si vous avez entraîné une IA à diagnostiquer certaines choses, et que je découvre que toutes vos données d’entraînement concernent des hommes trentenaires caucasiens, je vais peut-être m’interroger sur l’efficacité de ce système pour d’autres patients dans d’autres parties du globe. Sans pour autant remettre en cause l’algorithmique.
Source : www.sciencesetavenir.fr
Découvrir la suite de l'article sur le site d'origine