Intelligence artificielle : OpenAI annonce des mesures pour éviter la désinformation politique

Intelligence artificielle : OpenAI annonce des mesures pour éviter la désinformation politique
Publié le
January 16, 2024
Intelligence artificielle : OpenAI annonce des mesures pour éviter la désinformation politique - La société star de l'intelligence artificielle refuse que ses programmes, comme ChatGPT ou DALL-E, soient utilisés "pour des campagnes politiques ou militantes".

Empêcher les usages malveillants, en particulier quand la moitié de la population mondiale se rend aux urnes en 2024. La société californienne OpenAI, créatrice de logiciels d'intelligence artificielle générative comme ChatGPT ou DALL-E, a dévoilé un ensemble de mesures pour éviter que ses programmes ne soient utilisés à des fins de désinformation politique, dans un communiqué publié lundi 15 janvier.

"Nous voulons être certains que notre technologie ne sera pas utilisée de manière à porter atteinte" au processus démocratique, explique OpenAI. "Nous sommes toujours en train d'évaluer l'efficacité potentielle de nos outils pour de la persuasion individualisée. Jusqu'à ce que nous en sachions plus, nous ne permettrons pas la création d'applications pour des campagnes politiques ou du lobbying", ajoute OpenAI.

L'entreprise refuse également "la création de chatbots qui font semblant d'être de vraies personnes (comme des candidats) ou des institutions (comme un gouvernement)", ainsi que l'utilisation de ses programmes pour dissuader les gens de voter. ChatGPT va aussi renvoyer plus souvent vers des contenus extérieurs de sources d'information reconnues, pour éviter les "hallucinations", ces faits trompeurs inventés par le logiciel.

Limiter les deepfakes

Le succès de ChatGPT a popularisé l'intelligence artificielle générative, ces programmes qui peuvent créer des textes ou des images proches de ceux d'un humain après avoir été entraînés sur des milliards d'exemples. Mais ces programmes ont également facilité la création de "deepfakes", de fausses images ou vidéos très réalistes pouvant être utilisées à des fins malveillantes. OpenAI insiste sur le travail déjà accompli pour limiter ce risque : ses programmes de génération d'images DALL-E bloquent la création d'images contenant des personnes réelles.

La société phare de l'IA travaille aussi à un logiciel pour savoir si une image a été générée grâce à DALL-E. Cet outil sera "bientôt mis à disposition d'un premier groupe de testeurs". En attendant, OpenAI va intégrer, "en début d'année", des "identifiants numériques" dans les images créées pour empêcher de mentir sur leur nature artificielle. Ces identifiants seront conçus par la C2PA (Coalition pour la provenance et l'authenticité des contenus), qui réunira notamment Microsoft, Sony, Adobe, Nikkon et Canon.

Source : www.francetvinfo.fr

Découvrir la suite de l'article sur le site d'origine

Newsletter hebdomadaire
Ne ratez aucune information. Recevez un seul e-mail avec toutes les actualités de la semaine.
Nous respectons vos données personnelles. Politique de confidentialité
Merci ! Votre inscription a bien été reçue.
Oups! Une erreur s'est produite. Si le problème persiste, contactez-nous.

Consulter les fiches repères

Le wokisme
Yoga ou sophrologie dans les écoles publiques. Est-ce autorisé ?
Les élections départementales
La liberté d'expression à l'école