Ce site est susceptible d'enregistrer des cookies

 ScoopitTopTwitterTopFacebookTop

lundi, 04 juin 2018 00:00

Les enjeux éthiques de l'IA

Écrit par 

Mars 2018. Le rapport Villani sur l'intelligence artificielle consacre un volet conséquent à l'importance de l'éthique dans ce domaine, recommandations à l'appui. Dans la continuité, le sujet était au cœur des discussions entre le gouvernement français et les différentes entreprises lors du récent sommet Tech for good : les acteurs de l'IA ont été appelés à se pencher sur leur responsabilité autour des enjeux éthiques. L'occasion de faire un point sur la véritable nature de l'IA et les algorithmes qui la composent.

Fin mars, le mathématicien et député Cédric Villani rendait au gouvernement son rapport sur l'intelligence artificielle en France. Pour mener à bien ce projet, il s'est appuyé sur l'expertise de Marc Schoenauer, l'un des rares mathématiciens français reconnu dans ce domaine depuis plus de 25 ans. Nous avons rencontré ce dernier : au-delà des questions éthiques et sociétales que pose l'intelligence artificielle, il nous révèle l'impact d'une plus grande transparence des algorithmes sur l'innovation.

Comment s'assurer que les algorithmes œuvrent en faveur de notre bien-être ?

Marc Schoenauer – On ne peut pas s'en assurer, car tout dépend de qui s'en sert et comment. Il est primordial que tout le monde ait conscience de cette forme de versatilité liée aux systèmes d'IA : un même algorithme peut aujourd'hui engendrer de bonnes choses comme de mauvaises, selon les données qui le nourrissent ou l'utilisation qui en est faite à terme. Si l'on prend l'exemple de la reconnaissance des images : en schématisant (car ce ne sont pas les seuls algorithmes en jeu ici), cette fonctionnalité permettra aux véhicules autonomes de diminuer le nombre d'accidents sur nos routes. Mais cette même fonctionnalité permet également aux autorités chinoises, pour rester dans la caricature, lorsqu'une personne traverse en dehors des clous, d'afficher sa photo, son nom et de le donner en pâture à la vindicte populaire en tant que « mauvais citoyen ». Un même algorithme pour deux utilisations différentes. Un autre biais est celui provenant des données. Si l'on nourrit un algorithme d'apprentissage à partir de l'agrégation des salaires actuels, ce dernier intégrera inévitablement les écarts de salaires qui existent aujourd'hui entre les femmes et les hommes. Et il reproduira ce biais dans les propositions qu'il pourra être amené à faire. Ce n'est donc pas la valeur éthique de l'algorithme seul qu'il faut juger, mais aussi celle des données utilisées pour son entraînement, parfois à l'insu du plein gré du programmeur.

En ce sens, et pour éviter toute forme de discrimination, quelles sont les préconisations majeures du rapport Villani ?

M. S. – Des barrières légales existent déjà qui stipulent que l'on n'a pas le droit de faire de discrimination : pour autant, elles ne suffisent pas. Une première préconisation stipule qu'il devrait exister un corps d'experts capable d'effectuer des audits. Assermenté par l'État mais indépendant, il pourrait être saisi par tous et à tout moment pour vérifier si un système d'intelligence artificielle est discriminatoire. Et c'est ce dernier point qu'il est difficile de mettre en place : vu qu'il n'existe pas encore de mesures mathématiques unanimement acceptées pour déterminer le niveau de discrimination, la seule solution possible est d'avoir recours à des expériences. Mais il est nécessaire pour cela d'avoir la possibilité d'expérimenter avec les systèmes à tester. Ainsi, pour un réseau social donné (choisi au hasard), il faudrait pouvoir créer des centaines de « faux » profils masculins et leurs équivalents féminins (ne différant que par le genre), afin d'examiner s'ils sont traités de manière équitable. Mais pour l'instant, la création de tels faux profils n'est en général pas permise par les réseaux sociaux les plus connus – et c'est là que la loi pourrait intervenir.

  Source: lesclesdedemain.lemonde.fr

Découvrir la suite de l'article sur le site d'origine

CPDH-Médias

E-mail Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser.

paypal

Information

Les informations, publications et vidéos affichées sur le site du CPDH n'engagent que leurs auteurs. Dans un souci d'informations plurielles, le CPDH les présente mais décline toute responsabilité quant à leur contenu et affirme son indépendance par rapport aux sources dont elles proviennent.