L’INTELLIGENCE ARTIFICIELLE ET NOUS – Par Gabriel Banon

5437685854_d630fceaff_b-

Lorsque l’ensemble des partis seront dotés – ou vont se doter de ce type d’outil – se posera alors la question d’une part de la finalité d’usage et d’autre part de son identification transparente, à savoir que l’usager soit informé qu’il a affaire à un bot politique.

1
Partager :

 

LE MONDE QUI NOUS ATTEND – Par Gabriel Banon

Depuis quelques jours on ne parle que de « Chat GPT » et des bots politiques dernière génération.

L’arrivée des agents conversationnels dans le domaine politique n’est pas une nouveauté. L’IA ne cesse de progresser et se retrouve déjà dans nombre de nos usages au quotidien… et les tentations ici et là d’y avoir recours sont multiples.

Aujourd’hui, ChatGPT développé par OpenAI est spécialisé dans le dialogue et conçu – selon ses développeurs – pour être utilisé dans des applications de chat en temps réel. Voilà un assistant virtuel qui ne manque pas d’intérêts. Sa dernière prouesse : réussir un examen d’une faculté de droit américaine renommée :

« Christian Terwiesch, professeur de la prestigieuse université américaine de Wharton (dont le programme de MBA est classé n°1 mondial selon le Financial Times et n°1 aux États-Unis selon le classement 2023 U.S. News & World Report) a soumis le chatbot d’OpenAI à un examen de son cours de management des opérations qui fait partie du cursus MBA, parmi les plus réputés du monde ». Le résultat a été bluffant : des notes de B- à B, soit de 10,5 à 12 sur 20, une moyenne pour le moins honorable par rapport aux résultats usuellement obtenus par les étudiants. On ne peut qu’être admiratif et anxieux à la fois.

Cette prouesse, largement médiatisée, n’a pas manqué de provoquer à la fois de l’enthousiasme et une véritable émotion, partout dans le monde, émotion et inquiétude.

 SPARROW, un chabot conçu par Deep Mind se veut une possibilité de contrecarrer le chatGPT d’OpenAI. La question est de savoir si nous sommes vraiment devant une nouveauté révolutionnaire ? 

Yann LeCun, pionnier de l’Intelligence Artificielle n’est pas de cet avis : « Rien de moins certain, le public se méprend sur l’aspect innovant et unique du Chatbot d’OpenAI ». Selon lui il faut corriger la perception du public et des médias qui voient ChatGPT comme une percée technologique incroyablement innovante et unique, en avance sur tout le monde. Et LeCun de trancher : « ce n’est tout simplement pas le cas ! ».

Ceci étant précisé, il ne faudrait pas écarter le côté plus sombre et même dangereux de l’usage potentiellement dévoyé de Chatbots voués à être de plus en plus performants, particulièrement dans des domaines touchant l’information et bien entendu la politique.

 Vincent Flibustier, créateur du site parodique Nordpress a développé un Chatbot nommé ChatCGT, une version marxiste de ChatGPT qui n’apprécie ni le président français Emmanuel Macron, ni a fortiori sa politique.

Ce Chatbot répond de façon naturellement orientée à toutes sortes de questions et apporte des réponses et du contenu « crédible » à ses utilisateurs. Un contenu qui pourra rapidement essaimer sur le réseau par les plus convaincus ou des militants les plus actifs. Nul besoin de juger de la pertinence ou non des réponses apportées par un Bot politique idéologiquement marqué.

Il a néanmoins le mérite indéniable de mettre en lumière l’enjeu politique et poser les bonnes questions : quels usages ? quels impacts réels ? quel encadrement juridique ?

 A aujourd’hui, la plupart des bots étaient capables de tenir une conversation basique, le temps a passé depuis. En s’appuyant sur le Natural Language Processing (NLP) – une technologie qui permet aux machines de comprendre le langage humain, avec les progrès du deep learning,  il va de soi qu’ils seront de plus en plus difficiles à détecter s’ils ne sont pas présentés à l’utilisateur comme tel.

En France, les agents conversationnels dans le domaine politique ne sont pas une nouveauté. Par exemple le bot politique de Benoit Hamon, nommé Le « Botnoît » que le présidentiable avait utilisé lors de la campagne 2017. Le seul risque pris étant alors pour le politique y ayant recours de se fier à un Chatbot insuffisamment « puissant » : le politique ne doit jamais omettre qu’un Chatbot n’est encore à ce jour pas infaillible et qu’il parle en son nom.

 Lorsque l’ensemble des partis seront dotés – ou vont se doter de ce type d’outil – se posera alors la question d’une part de la finalité d’usage et d’autre part de son identification transparente, à savoir que l’usager soit informé qu’il a affaire à un bot politique.

 Les Chatbots politiques doivent être identifiables, porteurs de réponses certes partisanes, mais fiables et centrées sur leur projet politique… alors, tout serait pour le mieux dans le meilleur des cybermondes…

Malheureusement, la naïveté est interdite en la matière. Un bot politique n’est pas neutre ! Dès lors, si les choses ne sont pas très encadrées par le législateur, lors de campagnes futures, les démocraties peuvent redouter la démultiplication de bots politiques « dissimulés » dédiés à une propagation des Fakesnews, d’où une augmentation substantielle de la désinformation, avec pour objectif, de nuire à un adversaire. Si ces bots sont utilisés de façon dévoyée, ces avancées en IA représentent donc, un grave danger pour un scrutin démocratique sain et éclairé. Ils sont aujourd’hui, tout à fait opérationnels pour manipuler l’opinion publique.

L’usage malfaisant des bots politiques doit donc être pris en compte par le législateur, mais dans les faits, quelles sont les sanctions ? Certes le citoyen peut dormir tranquille, le texte lui permet notamment de « saisir un juge qui, en quarante-huit heures, statuera sur la nécessité de faire cesser la diffusion d’une fausse nouvelle de nature à altérer la sincérité d’un scrutin. »…

La belle affaire ! C’est une véritable problématique dans la mesure où quand bien même sanction il y aurait, elle ne tomberait jamais qu’après le scrutin. Le risque pris d’un usage dévoyé est donc réel. Doit-on simplement qu’espérer des hommes et des femmes de biens. S’ils existent encore, il serait judicieux que toutes personnes se sentant concernées prennent connaissance des conseils de la CNIL(Commission Nationale de l’informatique et des Libertés) pour respecter les droits des personnes.

« Tout le monde manipule tout le monde et c’est ce qui rend la politique dangereuse et passionnante à la fois. » avait déclaré Bruno Kreisky, l’ancien chancelier d’Autriche.