« Il faut mieux expliquer les capacités de l’IA, estime Laurence Devillers ; ce ne sont pas des objets magiques, ils ont été façonnés par des mathématiques et des statistiques à partir de nos données. » « Il y a de l’humain derrière », rappelle-t-elle. En effet, « ChatGPT est une machine incapable de raisonner dans la temporalité, comme elle est incapable de raisonner dans notre espace 3D, d’ailleurs elle ne raisonne pas au sens humain ». En outre, « le système répond sans donner aucune de ses sources. Il est même capable d’en générer des fausses », avertit le professeur. Car « il n’a pas été créé pour répondre ce qui est vrai, mais pour générer ce qui est probable ».
Le problème est que « nous avons tendance à anthropomorphiser ces machines parce qu’elles parlent notre langue en fantasmant sur leurs savoirs, leurs affects, voire sur leurs valeurs morales », regrette Laurence Devillers. Pourtant « il n’a pas d’abstraction ni de sens commun ». Sans le vouer aux gémonies, « il faut donc démythifier ChatGPT ».
« Si on confie trop de tâches à ces systèmes d’IA, on va perdre en intelligence collective, car la machine standardise plein de choses dont on ne se rend pas forcément compte. » Laurence Devillers insiste sur le rôle de l’école « pour apprendre à comprendre » : « l’IA doit stimuler notre libre arbitre, nous pousser à être un peu moins mouton ».
Source : www.genethique.org
Découvrir la suite de l'article sur le site d'origine
Laurence Devillers, spécialiste de l’Intelligence Artificielle, confirme ce que l’on savait déjà : l’IA n’a pas de volonté propre mais doit être régulée. Son utilisation excessive pourrait à terme modifier nos façons de penser car elle n’est pas construite par des humains pour donner la vérité mais des probabilités. Les risques de fausses informations et de manipulations sont donc très importants, son utilisation doit être raisonnée pour que l’humanité conserve son libre arbitre.