
Certains parlent de révolution, d’autres y voient un danger. L’arrivée de ChatGPT, une intelligence artificielle qui répond aux questions posées sous forme de chat, soulève de nombreuses questions.
Ceux qui essaient ne peuvent rester indifférents. Bien que nous puissions appeler cela bluffant, impressionnant ou même “effrayant”, ChatGPT AI a mis l’IA à portée de main. Comment fonctionne ce logiciel, quels sont les sujets qui y sont liés, nous essayons de décrypter les grandes lignes de ce nouvel outil, que nous soyons contents ou effrayés.
1. Qu’est-ce que ChatGPT ?
Derrière ChatGPT se trouve la société américaine OpenAI, dont l’histoire a commencé en 2015 et compte parmi ses fondateurs, des personnalités très influentes de la technologie comme Elon Musk, Sam Altman, un puissant homme d’affaires, ou encore le Canadien Ilya Sutskever, également annoncé par le Canadien Ilya Sutskever. Le New York Times comme “l’un des chercheurs les plus importants de la décennie”. En 2018, Elon Musk quitte l’entreprise et lève des fonds pour financer la recherche OpenAI, et le modèle de langage développé par la société est disponible en téléchargement le 30 novembre 2022.
“C’est de l’IA productive”, explique Bertrand Pailhès, directeur des technologies et de l’innovation à la Cnil, responsable du service IA, lancé le 23 janvier. “ChatGPT fonctionne par apprentissage, nous l’alimentons vers le haut avec des millions de données”. Si le nom est “chat”, cela signifie parler en anglais et GPT pour “Generic pretrained transformer” qui se traduit par “Pre-trained generic transformer”.
Concrètement, pour quoi ?
Pour utiliser ChatGPT, qui est disponible dans de nombreuses langues, dont le français, il vous suffit de saisir une question dans une barre de dialogue. L’IA génère alors automatiquement une réponse sous forme de texte grammaticalement et syntaxiquement bien structuré à partir de sa propre base de données non connectée.
Le fait que la base de données ait été établie en 2021 explique pourquoi ChatGPT n’est pas en mesure de répondre aux questions actuelles. En revanche, il est possible de lui demander d’écrire un article sur l’histoire de France, par exemple, ou de lui demander de vous expliquer le fonctionnement du Parlement européen.
2. Pourquoi un tel enthousiasme ?
L’IA n’est pas vraiment nouvelle, mais ChatGPT montre au grand public les incroyables capacités d’une IA productive. Ainsi, il est possible de demander à ChatGPT : écrire une lettre de motivation ou générer des lignes de code informatique pour une entreprise spécifique.
Plus la demande est détaillée, plus la réponse est précise. « Nous atteignons désormais des niveaux de performance élevés avec des productions de très haute qualité, très proche d’un être humain pour réagir ou produire“, commentaire de Bertrand Pailhès.
3. Est-ce que ChatGPT est fiable ?
Deuxièmement, “ChatGPT n’est pas une base de connaissances, c’est ce qui le distingue le plus d’un moteur de recherche”, rappelle-t-il. Bref, ChatGPT a une approche statistique, contrairement à un moteur de recherche : “Beaucoup de gens finiront par y réfléchir s’ils lui disent que 2 + 2 égale 5. ‘ sera en mesure de répondre à cette question, ce que Google ne fait pas. La réponse de ChatGPT n’est pas une bonne ou une mauvaise réponse, juste une proposition discutable.», pointant Bertrand Pailhès.
C’est un rappel qu’il y a des limites aux textes que ce type d’interface produit. Raciste, homophobe, etc. Les données alimentant ChatGPT ont également été notées par des personnes qui ont signalé qu’un tel système pouvait être nuisible, afin d’éviter les erreurs, telles que les réponses qui pourraient en résulter. Constatant que l’intelligence artificielle ne répond pas à certaines questions, Bertrand Pailhès résume : “En gros, on lui a donné plein d’exemples de ce qu’il ne fallait pas faire.”
4. Quels risques et quel cadre ?
Un règlement européen est actuellement en préparation, mais la Cnil a déjà pris les devants en créant le SIA (Service d’Intelligence Artificielle) en France, qui vise à renforcer l’expertise de la Cnil dans ce domaine. “Les risques identifiés dans les Règles Intelligence Artificielle seront ceux liés à l’utilisation de l’IA pour la vidéo, la reconnaissance faciale ou le classement dans l’espace public”, explique Bertrand Pailhès.
Concernant ChatGPT, le risque pour l’homme semble limité. Mais selon Bertrand Pailhès il faudra, «excellent tutoriel de fond fourni avec l’outil“. Bref. Pour l’expert, “il y a un risque que des gens comme les étudiants utilisent une machine pour répondre à un devoir, et même il y a un décalage entre ce fait et ce que l’outil pense vraiment faire”.
“Comme tout outil technique, Il est conçu par des personnes qui ont pris des décisions dans des pays qui n’ont pas besoin d’avoir la même législation que l’Europe.», résume Bertrand Pailhès. Quant à l’épineuse question du contrôle des données qui anime cette IA, « c’est un peu le nœud de la question, précise Bertrand Pailhès. « Aujourd’hui, c’est contrôlé par les pouvoirs publics.
En 2023, une recommandation sur la création de la base de données concernant le RGPD (règlement général sur la protection des données) devrait voir le jour.
Le gros pari de Microsoft
Microsoft regarde OpenAI très au sérieux et teste l’intégration de ChatGPT dans ses outils. Début janvier, un média américain révélait que Microsoft Corp était en pourparlers pour investir 10 milliards de dollars (environ 9,3 milliards d’euros) dans OpenAI.
Selon l’AFP citée par BFM, des pourparlers qui ont finalement abouti à la troisième phase de coopération entre les deux entreprises, puisque le communiqué de presse conjoint de lundi 23 janvier évoquait un investissement de “plusieurs milliards de dollars”.
L’objectif de Microsoft sera d’intégrer l’IA dans des outils de messagerie comme Outlook et même le moteur de recherche Bing. Existe-t-il un moyen de revenir à la concurrence dans l’espace des moteurs de recherche, jusqu’à présent largement dominé par Google ?
De même, Microsoft a annoncé qu’en investissant dans l’Open AI, il intégrera une autre IA productive de l’entreprise, Dall-E, qui produit des images, et non du texte, dans sa suite bureautique. Un partenariat qui se traduira par l’activation d’un “code rouge” chez Google, selon le New York Times.