l s’agit en quelque sorte du « péché originel » de l’intelligence artificielle. Comment rendre l’IA éthique ?
Quasiment tous les modèles d’OpenAI et de Meta ont été formés à partir de données extraites du web sans que les personnes qui les ont publiées en aient été informées au préalable ou aient donné leur autorisation pour qu’on les utilise. Une chose tout à fait normale pour les « pionniers » de l’IA qui soutiennent qu’il s’agit d’un jeu loyal autorisé par la loi.
Comme l’a expliqué OpenAI, le créateur de ChatGPT, dans un récent article de blog : « L’entraînement de modèles d’IA à l’aide de matériel Internet accessible au public est un usage loyal, comme le montrent des précédents de longue date et largement acceptés. Nous considérons que ce principe est juste pour les créateurs, nécessaire pour les innovateurs et essentiel pour la compétitivité des États-Unis« . Bah voyons. Cela dit, Sam Altman, le PDG de la compagnie a raison sur au moins un point : la méthode n’est pas nouvelle, puisque le moteur de recherche de Google s’est constitué de la même manière.
La chose est devenue sérieuse, car plusieurs entreprises d’IA générative comme Midjourney et OpenAI sont actuellement poursuivies en justice par des auteurs et artistes estimant s’être fait piller leurs œuvres.
C’est dans ce contexte qu’a été annoncé le 17 janvier la création de Fairly Trained, une organisation à but non lucratif cofondée et dirigée par le PDG Ed Newton-Rex, un ancien employé devenu opposant à Stability AI, l’entreprise à l’origine du service de génération d’images Stable Diffusion.
L’ambition de Fairly Trained est de créer une certification que pourront obtenir toutes sociétés qui acceptent de jouer le jeu du consentement.
Source : www.cnetfrance.fr