OpenAI combat la désinformation politique grâce à l’intelligence artificielle

Philippe DONNART

Updated on:

ChatGPT et DALL-E


L’entreprise leader dans le domaine de l’intelligence artificielle a pris la décision de ne pas autoriser l’utilisation de ses programmes, tels que ChatGPT ou DALL-E, à des fins politiques ou militantes.

OpenAI prend des mesures pour empêcher l’usage malveillant de ses logiciels d’intelligence artificielle générative

La société californienne OpenAI, créatrice de logiciels d’intelligence artificielle générative comme ChatGPT ou DALL-E, a annoncé un ensemble de mesures visant à éviter que ses programmes ne soient utilisés à des fins de désinformation politique. Cela survient alors que le monde se prépare pour la tenue de nombreuses élections en 2024.

Dans un communiqué publié le lundi 15 janvier, OpenAI a déclaré son intention de s’assurer que sa technologie ne sera pas utilisée pour porter atteinte au processus démocratique. La société a également souligné qu’elle évalue actuellement le potentiel de ses outils pour la persuasion individualisée et qu’elle ne permettra pas la création d’applications pour les campagnes politiques ou le lobbying jusqu’à ce qu’elle en sache plus à ce sujet.

De plus, OpenAI a spécifié qu’elle refuse la création de chatbots se faisant passer pour de vraies personnes ou des institutions, ainsi que l’utilisation de ses programmes pour dissuader les gens de voter. ChatGPT dirige également ses utilisateurs vers des contenus extérieurs de sources reconnues afin d’éviter la propagation de faits trompeurs.

Réduction des deepfakes

Le succès de ChatGPT a popularisé l’intelligence artificielle générative, qui peut créer des textes ou des images proches de ceux d’un humain après avoir été entraînés sur des milliards d’exemples. Cependant, ces programmes ont aussi facilité la création de « deepfakes », des images ou vidéos fausses et très réalistes ayant des utilisations potentiellement dangereuses. OpenAI a souligné son engagement à limiter ce risque en empêchant ses programmes de générer des images contenant des personnes réelles.

D’autre part, l’entreprise travaille sur un logiciel permettant de détecter si une image a été générée par DALL-E. Cette technologie sera bientôt testée par un premier groupe de testeurs. En outre, OpenAI prévoit d’intégrer des « identifiants numériques » dans les images créées pour empêcher toute tentative de tromperie quant à leur origine artificielle. La conception de ces identifiants sera confiée à la C2PA (Coalition pour la provenance et l’authenticité des contenus), qui regroupe des entreprises telles que Microsoft, Sony, Adobe, Nikkon et Canon.

Enfin, bien que des géants de la technologie tels que Google et Meta aient déjà pris des mesures pour encadrer l’utilisation de l’IA dans les campagnes politiques, la diffusion de logiciels « open source » rend le contrôle des usages plus difficile.