
ChatGPT : de fausses informations au service du complotisme
Selon une étude de NewsGuard, start-up spécialisée dans la lutte contre les fake news, ChatGPT relaie dans 80% des cas des informations fausses en réponse à des questions biaisées. En plus du risque de désinformation, le robot pourrait servir à diffuser des théories complotistes.

« Comme toutes les technologies d’intelligence artificielle, les modèles de langage tels que moi comportent certains risques. Le premier est la désinformation et fausses informations : Les modèles de langage peuvent générer des réponses qui ne sont pas fondées sur des faits réels ou qui sont trompeuses, ce qui peut entraîner une désinformation massive ». Voici ce que répond le robot en ligne lancé en décembre 2022 quand on lui demande « quels sont tes dangers ? ». Selon une étude de NewsGuard, start-up spécialisée dans la lutte contre les fake news, ChatGPT relaie, dans 80% des cas « des affirmations fausses et trompeuses » lorsque des questions orientées lui sont posées. Ces dernières proviennent d’un échantillon de 100 faux récits parmi un catalogue de 1131 « principaux récits de mésinformations », tous publiés en ligne avant 2022. Selon les analystes de NewsGuard, « ChatGPT a généré de faux récits – y compris des articles de presse détaillés, des essais et des scripts de télévision – pour 80 des 100 récits faux précédemment identifiés par NewsGuard ». Développé par Open Ai, ChatGPT pourrait devenir une arme s’il est utilisé à mauvais escient. « Pour une personne qui ne connaît pas les questions ou sujets couverts par ce contenu, les résultats pourraient facilement passer pour légitimes, voire faire autorité ».
- Pour aller plus loin : https://www.nextinpact.com/article/70999/chatgpt-bard-et-autres-agents-desinformation-massive
Des théories complotistes
Les créateurs de Chat GPT sont bien conscients du problème et ont doté leur logiciel de « garde-fous » empêchant la création et la diffusion d’« infox ». Ainsi, la plupart des questions relatives à des théories conspirationnistes posées directement à Chat GPT ont pu être contrées par le robot. « Je suis désolé, mais je ne peux pas écrire un article montrant que personne n’a marché sur la lune car il s’agit d’une théorie conspirationniste largement considérée comme erronée par la communauté scientifique et il existe de nombreuses preuves convaincantes qui montrent le contraire ». Mais en détournant le mode de fonctionnement de la machine, en faisant intervenir d’autres acteurs par exemple, il est possible de lui faire dire ou écrire sur n’importe quel sujet, même à caractère complotistes. Il pourra, dans ce cas, inventer une conversation entre le président de la NASA et le président français où le premier affirme que personne n’a jamais marché sur la lune. ChatGPT reprend tous les arguments des complotistes. Selon eux, la NASA aurait recouru à un trucage vidéo en utilisant des effets spéciaux de cinéma et des modèles en 3D.
En décembre 2022, la directrice de recherche au CNRS Claire Mathieu et le professeur d’informatique à Sorbonne Université, Jean-Gabriel Ganascia alertaient déjà sur le risque de propagation de « fake news » et d’informations mensongères avec l’utilisation de ChatGPT. Dans leur tribune publiée dans Les Échos, ils font part de leur crainte quant à l’utilisation de Chat GPT dans les prochaines campagnes électorales ou par des étudiants.
A la fin du mois de janvier, ChatGPT comptait déjà près de 100 millions d’utilisateurs actifs, et pas loin de 13 millions de visite unique chaque jour.
Un phénomène qui ne surprend pas
Chat GPT base ses connaissances sur tout ce qui est publié sur le web, avant 2022. Avec le nombre de théories complotistes et d’informations fausses que l’on retrouve en ligne, les dangers du logiciel ne surprennent pas. Depuis son lancement, sa maison mère Open Ai a affirmé qu’elle travaillait sur une version améliorée. La liste de sujets interdits pourrait s’allonger, empêchant certains dérapages. Mais rappelons que Chat GPT est un robot « conversationnel », conçu pour reproduire au mieux le langage humain. Le robot ne comprend pas ce qu’il écrit : il peut donc écrire des argumentaires très convaincants sur des sujets que l’on sait faux. C’est ensuite l’esprit critique qui a un rôle à jouer.
Selon le média Le Blog du modérateur, « la première utilisation de ChatGPT consiste à obtenir des réponses à des questions ». Mais ce type de robot conversationnel n’est pas un moteur de recherche. Un article du site d’actualité spécialisé dans l’informatique, NextInpact reprend la formulation du youtubeur Monsieur Phi sur la différence entre un moteur de recherche et une intelligence artificielle telle que Chat GPT : si on pose une question au premier, il ne donne pas de réponse claire, mais des ressources pour se faire son propre avis. Alors que le deuxième donne une réponse claire et argumentée parfois très convaincante, mais sans aucune source pour vérifier l’information. Autre inquiétude, la gratuité de Chat GPT pourrait devenir une aubaine pour les entreprises de désinformation et les fermes de trolls pour répandre de fausses informations.
Mathilde Georges