Il est dorénavant admis, au cas où le doute subsisterait pour certains, que les innovations technologiques connaissent une ascension fulgurante qui font vibrer le monde du 21e siècle. Cette évolution ne s’est pas seulement affirmé dans le domaine médical, avec les technologies et vaccins innovants ; ou encore dans le domaine aérospatial, avec des explorations toujours plus impressionnantes. Cette évolution s’est également matérialisé dans bien des secteurs d’activités, notamment grâce à l’intelligence artificielle en général et au très populaire ChatGPT en particulier.
L’intelligence artificielle, abrégé IA en français et AI en anglais, est pour le parlement européen, tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Le conseil européen quant à lui, le définit de la manière suivante : « système conçu pour fonctionner avec un certain niveau d’autonomie et qui, sur la base de données et d’entrées fournies par une machine et/ou par l’homme, déduit comment atteindre un ensemble donné d’objectifs définis par l’homme en utilisant des approches basées sur l’apprentissage automatique et/ou la logique et la connaissance, et produit des sorties générées par le système, telles que du contenu, des prédictions, des recommandations ou des décisions, influençant les environnements avec lesquels il interagit».
De plus en plus de nouvelles technologies fonctionnent sur la base de ce système d’intelligence artificielle, ce qui entraine sa quasi « omniprésence » dans le quotidien des consommateurs de produits et services numériques.
Cette montée en puissance de l’IA est d’ailleurs ce qui sans doute justifie cet intérêt au niveau européen, manifesté à travers ces différentes actions à finalité régulatrice entre autres :
En Afrique, Le Bénin s’est doté d’une stratégie nationale d’intelligence artificielle et des mégadonnées. En effet le Gouvernement du Bénin à travers son programme d’actions a fait du numérique l’un des socles du progrès économique et social. Les investissements importants réalisés dans ce secteur depuis 2016 témoignent d’une grande volonté politique pour développer l’économie numérique et transformer le pays en une plateforme régionale en matière de services numériques et ce de façon durable.
D’un montant prévisionnel de quatre milliards six cent quatre-vingts millions (4 680 000 000) francs CFA sur une période de cinq (05) ans, la mise en œuvre de cette stratégie offre l’opportunité d’exploiter l’IA dans les domaines cibles de développement afin de positionner le pays comme un acteur majeur de l’IA en Afrique de l’Ouest.
L’IA est donc unanimement “l’attraction du siècle”, tant pour les pouvoirs publics que pour les organismes privés à l’instar d’OpenAI et de Google. En effet, #DeepMind, la division chargée de l’intelligence artificielle chez Google à annoncé la sortie de son bot Google #Sparrow (actuellement en éssai et en version privée).
Ce bot conversationnel identique à ChatGPT, s’avère plus puissant et plus crédible que ce dernier. Contrairement à ChatGPT, Sparrow aura :
Open AI, l’entreprise à la base de ChatGPT se présente comme une entreprise à « but lucratif plafonné », spécialisé en raisonnement artificiel et basé à San Francisco.
Petite précision : OpenAI est défini comme étant à but lucratif plafonné car, car à sa fondation en décembre 2015, elle était vouée à fonctionner comme une association ou un centre privé de recherche en intelligence artificielle à but non lucratif et engagé à rendre les résultats de ses résultats de ses recherches publiques et accessibles à tous. Ce n’est qu’en mars 2019 que l’entreprise décide de monétiser certains résultats de ses travaux (but lucratif plafonné) pour « attirer des capitaux permettant la pérennité des recherches ».
Etant donc spécialisé en intelligence artficielle, c’est tout naturellement qu’OpenAI a développé et rendu publique la première version de ChatGPT, le 30 novembre 2022, assistant conversationnel basé sur l’intelligence artificielle.
Le sigle ChatGPT signifie « Generative pre-trained transformer » (« Transformateur générique entrainé »), car en effet, il a été mis en place et entrainé par des formateurs humains, d’où l’apprentissage supervisé ; nourrit de données collectées via internet et grâce à l’utilisation des « premiers curieux » que nous sommes, d’où l’apprentissage par renforcement.
L’apprentissage de ChatGPT est effectivement toujours en cours, car la première version mise à disposition du public, permettrait à OpenAI de faire “éprouver” l’outil par les “premiers curieux” afin de déceler ses limites et failles et ainsi pouvoir l’améliorer, pour en produire une nouvelle version qui pour le coups, serait payante. Au demeurant nous trouvons la stratégie marketing assez ingénieuse!
ChatGPT est présenté au public comme étant un prototype d’agent conversationnel utilisant l’intelligence artificielle et spécialisé dans le dialogue. Il est capable de produire des réponses articulées, bien agencées et « logiques », suite aux questions ou demandes qui lui sont adressées. Réponses par ailleurs très comparables à ce que pourrait produire un humain ; d’où la stupeur qu’elle entrainera assez vite.
Face au niveau que présentent les capacités conversationnelles de ChatGPT, il suscitera très tôt un sentiment mitigé d’émerveillement et de crainte, au sein des communautés de technophiles, de juristes, d’haquers, de journalistes IT, d’universitaires etc. que nous appellerons pour les besoins de l’article : les « premiers curieux ».
Précisons également que ce sentiment mitigé et les nombreuses réactions sur l’outil ne sont axées que sur ses prouesses, qui inhibent d’ailleurs toute alerte sur les limites que présentent l’agent conversationnel ; notamment :
A présent laissons nos yeux d’enfants s’émerveiller face aux aptitudes de ChatGPT, car oui cet assistant conversationnel est capable :
Vous l’aurez compris, la liste est longue et selon le domaine et le besoin il est encore possible de découvrir d’autres aptitudes de cet outil. D’ailleurs certains « premiers curieux » révèlent qu’en combinant ChatGPT avec d’autres logiciels, on pourrait en faire des usages autre que le dialogue, notamment éditer des sites, réaliser des productions de campagne publicitaires, développer des applications etc. Il ne faut cependant pas se tromper, car tout n’est pas si rose ! Les nouvelles avancées ne profitent pas en effet qu’aux utilisateurs de bonne foi, certains malheureusement peuvent s’en servir pour des usages malveillants.
Chat GPT pourrait constituer du pain béni pour les utilisateurs malveillants de produits et services numérique. Au regard de la capacité de ChatGPT à produire des textes d’une certaine qualité argumentaire et rhétorique, certains utilisateurs pourraient s’en servir pour générer des messages et communiqués manipulateurs et trompeurs notamment en période électorale, et qui auront vocation à semer le doute. Cette pratique ne serait certes pas nouvelle, mais le phénomène pourrait s’accroitre en raison de fait qu’il ne prendrait, grâce à ChatGPT, que quelques secondes pour produire ces messages ; ce qui accroitrait leur nombre et amplifierai leur effet au sein de la population. Le dénigrement ou la manipulation électorale pourrait en devenir virale.
Pour les cybercriminels, l’apparition de ChatGPT est également une occasion en or d’accroitre et perfectionner les messages et mails d’hameçonnage. Adieu les fautes dans les mails d’hameçonnage ! Fautes qui, soulignons-le faisaient partie des signes permettant à certaines personnes de reconnaitre la tentative d’hameçonnage. En effet les messages et mails rédigés par ChatGPT pourraient à perfection imiter le style et vocabulaire des courriers institutionnels notamment, ce qui pourrait accroitre de ce fait le nombre de pris au piège des cybercriminels.
Autre possibilité et pas des moindre, la capacité d’éditer des logiciels malveillants. Selon Check Point Research, une société spécialisée dans la cyber sécurité : « ChatGPT est déjà utilisé par des cybercriminels pour concevoir des logiciels malveillants. L’historique des discussions d’un forum fréquenté par les cybercriminels semble montrer que des pirates ont créé, grâce au bot de ChatGPT, un logiciel capable de voler certains types de fichiers sur une machine Windows, ainsi qu’un logiciel capable de générer de faux contenus (e-books, formations, etc.) sur le web ».
Le constat est donc fatal, ChatGPT sert autant les utilisateurs de bonne foi que ceux à sombre motivation. La vigilance doit plus que de coutume être au rendez-vous.
De tous les domaines auquel ChatGPT pourrait s’adresser, le monde universitaire et globalement enseignant est sans doute le plus alarmé.
En effet dès son apparition en novembre 2022, la capacité productive de l’outil a été décrié comme pouvant être un danger pour l’authenticité et l’effort personnel devant être matérialisé à travers chaque production étudiante. Les « premiers curieux » y ont tout de suite vu un usage pouvant supplanter les vraies productions des étudiants à travers les devoirs, projets, recherches et même mémoire.
Avaient-ils tort ?…
Pas tout à fait ! car effectivement, les étudiants se sont comme tout le monde accaparé de cet outil et ont tenté d’en tirer certains bénéfices, avant de se voir limité pour certains dans l’euphorie. Cette tentation est amplifiée par le fait que depuis la Covid, les modalités d’évaluation scolaires et universitaires ont dû évoluer pour s’aligner au « distanciel ». Il y a par ce fait de plus en plus de devoirs, examens et autres évaluations qui se font depuis le domicile des étudiants et élèves.
En France, plus précisément à l’université de Lyon, la moitié des étudiants d’un master auraient utilisé ChatGPT pour réaliser un devoir. Aux dernières nouvelles cette information serait démentie par l’université, mais qu’elle soit avérée ou pas, cela montre déjà la probabilité de cet usage au sein des facultés et écoles par les apprenants.
Par ailleurs, toujours en France, dans un courrier adressé à l’ensemble des étudiants et des enseignants par Sergei Guriev, Directeur de la formation et de la recherche; la direction de Sciences Po annonce que “l’utilisation, sans mention explicite, de ChatGPT à Sciences Po, ou de tout autre outil ayant recours à l’IA est, à l’exception d’un usage pédagogique encadré par un enseignant, pour l’instant strictement interdite lors de la production de travaux écrits ou oraux par les étudiantes et étudiants sous peine de sanctions qui peuvent aller jusqu’à l’exclusion de l’établissement voire de l’enseignement supérieur” comme nous le rapporte le site d’information Zataz.
Cette interdiction est justifiée par l’établissement par la necessité de respecter la charte à laquelle tous les élèves souscrivent à l’inscription, pour respecter notamment les principes d’honnêteté intellectuelle lors des évaluations, sous peine d’exclusion définitive de l’établissement.
Sous d’autres cieux, notamment aux Etats Unis, il semblerait que les services de la ville de New York interdisent également l’accès à ChatGPT sur les postes informatiques des écoles publiques de la ville. Une porte-parole de la ville de New-York justifie cette décision en raison des « préoccupations concernant la sécurité et l’exactitude du contenu » (Julien Lausson, « ChatGPT fait peur à New York, qui l’interdit dans ses écoles » , sur Numerama, 5 janvier 2023.).
En France, Le ministère de l’Éducation nationale déclare « suivre attentivement cette question et les potentielles utilisations de cette innovation dans les écoles, collèges et lycées ». Face à ces craintes et premières mesures préventives au sein du monde enseignant, certaines solutions commencent déjà à sortir de terre. Tout à l’instar de certaines solutions permettant de détecter le plagiat dans certaines productions, il apparait peu à peu des logiciels capables de détecter si une production a été faire entièrement ou partiellement par ChatGPT.
En effet les logiciels anti-plagiat connaissent leurs limites face aux productions de ChatGPT, car ce dernier génère des productions uniques, c’est-à-dire attribuées à aucun auteur à date. Ainsi il faudrait développer des solutions qui permettraient de venir à bout de telles difficultés de détection de toute contribution/production de ChatGPT.
Ce défi, Edward Tian Semble l’avoir relevé. Ce jeune étudiant de Princeton âgé de 22 ans, aurait développé une application capable de détecter l’usage de l’intelligence artificielle, particulièrement celui de ChatGPT dans des productions. Cette application dénommée GPTZero serait donc capable de résoudre le problème éthique inquiétant à tort ou à raison, les enseignants, quant à la paternité et authenticité d’une production présentée comme telle par les étudiants.
Depuis, bien d’autres recherches seraient en voix de palier, comme GPTZero, à cette difficulté de « traquer » ChatGPT dans les moindres lignes des productions étudiantes.
Redouté ou adulé, ChatGPT reste tout de même, il faut le reconnaitre, une démonstration impressionnante des capacités de l’intelligence artificielle. Malgré les limites qu’on peut en déceler, il est important de noter que son usage peut servir tant de bonnes, que de mauvaises causes ; tout dépend des motivations de l’utilisateur.
L’apparition de ChatGPT ouvre t’il le bal des outils toujours plus intelligents ! toujours plus artificielles ! …. ?
Quoi qu’il en soit, il devient urgent de réguler les usages des systèmes d’intelligence artificielle et « éduquer » les utilisateurs, notamment les jeunes à un safe-use de ces outils innovants.
D’autre part où en est l’Afrique sur la question de la régulation des usages de l’intelligence artificielle ? Sachant qu’en pratique, il ne sera pas épargné de l’impact de son expansion !
Martine Ndéo Diouf