« Potentiellement, l’IA est un outil discriminant, manipulateur de l’information et de nos décisions »

« Potentiellement, l’IA est un outil discriminant, manipulateur de l’information et de nos décisions »
Publié le
October 23, 2023
« Potentiellement, l’IA est un outil discriminant, manipulateur de l’information et de nos décisions » - « Le lancement de ChatGPT n’est qu’une étape dans une longue histoire de recherches sur l’IA[1] », analyse Laurence Devillers, professeur à Sorbonne Université et spécialiste des interactions homme-machine et de l’informatique émotionnelle au CNRS, dans un entretien pour Madame Figaro. Mais l’étendue de ses capacités « oblige à reconnaître la puissance de l’IA ». Entre adhésion sans réserve et profondes inquiétudes, la « prise de conscience généralisée reste au fond assez binaire », juge le chercheur.

« Il n’a pas été créé pour répondre ce qui est vrai, mais pour générer ce qui est probable »

« Il faut mieux expliquer les capacités de l’IA, estime Laurence Devillers ; ce ne sont pas des objets magiques, ils ont été façonnés par des mathématiques et des statistiques à partir de nos données. » « Il y a de l’humain derrière », rappelle-t-elle. En effet, « ChatGPT est une machine incapable de raisonner dans la temporalité, comme elle est incapable de raisonner dans notre espace 3D, d’ailleurs elle ne raisonne pas au sens humain ». En outre, « le système répond sans donner aucune de ses sources. Il est même capable d’en générer des fausses », avertit le professeur. Car « il n’a pas été créé pour répondre ce qui est vrai, mais pour générer ce qui est probable ».

Le problème est que « nous avons tendance à anthropomorphiser ces machines parce qu’elles parlent notre langue en fantasmant sur leurs savoirs, leurs affects, voire sur leurs valeurs morales », regrette Laurence Devillers. Pourtant « il n’a pas d’abstraction ni de sens commun ». Sans le vouer aux gémonies, « il faut donc démythifier ChatGPT ».

Un risque de manipulation

« Si on confie trop de tâches à ces systèmes d’IA, on va perdre en intelligence collective, car la machine standardise plein de choses dont on ne se rend pas forcément compte. » Laurence Devillers insiste sur le rôle de l’école « pour apprendre à comprendre » : « l’IA doit stimuler notre libre arbitre, nous pousser à être un peu moins mouton ».

Source : www.genethique.org

Découvrir la suite de l'article sur le site d'origine

Commentaire du CPDH

Laurence Devillers, spécialiste de l’Intelligence Artificielle, confirme ce que l’on savait déjà : l’IA n’a pas de volonté propre mais doit être régulée. Son utilisation excessive pourrait à terme modifier nos façons de penser car elle n’est pas construite par des humains pour donner la vérité mais des probabilités. Les risques de fausses informations et de manipulations sont donc très importants, son utilisation doit être raisonnée pour que l’humanité conserve son libre arbitre.

Newsletter hebdomadaire
Ne ratez aucune information. Recevez un seul e-mail avec toutes les actualités de la semaine.
Nous respectons vos données personnelles. Politique de confidentialité
Merci ! Votre inscription a bien été reçue.
Oups! Une erreur s'est produite. Si le problème persiste, contactez-nous.

Consulter les fiches repères

Le wokisme
Yoga ou sophrologie dans les écoles publiques. Est-ce autorisé ?
Les élections départementales
La liberté d'expression à l'école