ChatGPT nous rendra-t-il moins crédules ?

Il y a quelques semaines, le 30 novembre 2022, la société OpenAI a livré au monde une nouvelle intelligence artificielle étonnante appelée ChatGPT. Après DALL·E, qui génère des images à partir d’instructions clairement écrites, ChatGPT peut presque parfaitement imiter des discussions entières ou répondre à des questions complexes en générant un texte qui semble sortir tout droit du cerveau humain.

Cette nouvelle avancée est alarmante pour des raisons économiques (notamment avec la possible destruction de certains emplois), éthiques (avec par exemple le risque que des modèles de langage comme ChatGPT adoptent une rhétorique raciste) ou pour des raisons « épistémiques ». L’IA n’a jusqu’à présent pas réussi à faire la distinction entre information fiable et information douteuse (le terme « épistémique » désigne la production ou l’acquisition de connaissances et de connaissances fiables).

Cependant, il y a des raisons de penser que la démocratisation de ChatGPT et confrères pourrait être une bonne nouvelle, du moins pour notre rapport à l’information.

menaces épistémiques

“L’intelligence artificielle peut être un danger épistémique car elle peut générer des informations convaincantes mais inexactes. Cela peut remettre en question notre compréhension du monde et même compromettre la validité de nos connaissances. Cela a soulevé des inquiétudes quant à la possibilité d’utiliser l’intelligence artificielle pour diffuser des informations erronées ou manipuler les croyances des gens. ”

Je ne dis pas ça… ChatGPT lui-même ! Le paragraphe précédent a été créé par cette IA en posant la question : « En quoi l’IA est-elle un danger épistémique ? Comme on peut le voir dans cet exemple, les réponses peuvent être assez convaincantes. Et pourtant c’est totalement stupide. c’est plus difficile de sortir.”

Il n’y a donc pas grand-chose à dire sur la première phrase, alors que la seconde est un cliché creux : que signifie exactement « remettre en question notre compréhension du monde » ou « compromettre la validité de nos connaissances » ? La troisième phrase est un non-sens complet : Ces IA ne publient rien et ne sont peut-être pas les mieux adaptées pour “manipuler” (car nous ne contrôlons pas ce qu’elles produisent).

Lire Aussi :  Nouveautés, bonus et promos de la semaine du 19 janvier – Rockstar Actu

Mais voici le problème : vous devriez envisager d’explorer le pot de roses.

générateur de conneries

Ce que vous devez comprendre, c’est que ChatGPT est programmé pour produire un texte crédible, pas pour répondre aux questions.

Techniquement, ChatGPT est ce qu’on appelle un “modèle de langue”. Un modèle de langage est un algorithme basé sur des technologies développées ces dernières années (réseaux de neurones, apprentissage profond, etc.) qui permet de calculer la probabilité d’une chaîne de mots à partir de l’analyse de textes préexistants. Il est beaucoup plus efficace car la quantité de texte qu’il peut “lire” est importante. En ce qui concerne ChatGPT, c’est absolument exceptionnel.

Ainsi, étant donné un ensemble de mots particulier, ChatGPT peut déterminer l’ensemble de mots le plus susceptible de le compléter. ChatGPT peut “répondre” de manière absolument fiable à une question car il calcule la réponse la plus probable. Mais il n’y a ni logique ni pensée dans cette réponse. Ce n’est rien d’autre qu’un calcul de probabilités. ChatGPT ne se soucie pas du tout de l’exactitude de ses réponses. En d’autres termes, c’est un générateur de “conneries”.

« Bullshit » n’est pas seulement un point d’exclamation anglo-américain qu’on peut désormais traduire en français par « foutaise » ou « fumisterie » depuis plusieurs années, mais c’est aussi un concept philosophique, puisque le philosophe Harry Frankfurt en a fait le sujet d’un article. puis un livre dans les années 2000.

Aujourd’hui, des chercheurs très sérieux en psychologie, philosophie, neurosciences ou gestion ont affaire à des bêtises. Le concept s’est complexifié, mais on peut conserver ici sa définition originelle : l’absurde est l’indifférence à la réalité. Il ne ment pas : le menteur se préoccupe de la vérité pour mieux cacher la vérité. La connerie l’ignore et essaie juste de l’attirer – parfois ce qu’il dit peut être vrai, parfois ce n’est peut-être pas vrai, cela n’a pas d’importance.

Lire Aussi :  God of War Ragnarok : Pas une claque graphique sur PS5, et alors ?

C’est exactement le cas du multi-talentueux ChatGPT : quand il ne tombe pas bien, il n’apparaît pas ou n’apparaît pas tout de suite. Un générateur de conneries super simple d’utilisation accessible à tous ? Il y a de quoi s’inquiéter. Vous pouvez facilement imaginer comment cet outil pourrait très simplement être utilisé pour générer des “informations” par des éditeurs de contenu peu scrupuleux, d’autant plus que ChatGPT semble tromper même les experts académiques en la matière.

Vices et vertus épistémiques

C’est une certaine éthique intellectuelle qui est en jeu. Contrairement aux idées reçues, la production ou l’acquisition de connaissances (scientifiques ou non) n’est pas qu’une question de méthode. C’est aussi une question morale. Les philosophes parlent de défauts ou de vertus « intellectuelles » (ou « épistémiques ») qui peuvent être définies comme des traits de caractère qui entravent ou, au contraire, facilitent l’acquisition et la production de connaissances fiables.

L’ouverture d’esprit est un exemple de vertu épistémique, tandis que le dogmatisme est un exemple de vice. Ces notions font l’objet d’une littérature philosophique croissante, l’épistémologie des vertus, depuis le début des années 1990. Puisque ce qui était à l’origine technique était le problème de la description précise de l’information, aujourd’hui ces études sont aussi pertinentes pour les problèmes épistémiques de notre temps : la désinformation, les fausses nouvelles, surtout les conneries, et bien sûr les dangers posés par l’intelligence artificielle.

Jusqu’à récemment, les épistémologues de la vertu discutant des conséquences épistémiques des IA se concentraient sur des vidéos “deep fake” imaginaires mais étonnamment réalistes créées entièrement par des IA de type DALL E, qui peuvent parfaitement représenter des individus très réels dans des situations scandaleuses. Les enseignements tirés de ces réflexions sur les deepfakes sont utiles pour réfléchir aux implications potentielles de ChatGPT et peut-être nuancer un pessimisme certes extrême.

Lire Aussi :  Une planète courant vers sa perte donne un aperçu possible de la fin de la Terre

La fabrication de deepfakes est clairement un problème, mais il est possible que leur généralisation évoque un scepticisme généralisé envers les images, une sorte de « cynisme intellectuel » chez le public. L’auteur qui a formulé cette proposition (en 2022) y voit une faille épistémique, car elle conduirait à douter à la fois du pari et de l’essentiel. Je ne suis pas sûr qu’un tel cynisme serait si mauvais : cela reviendrait à remonter dans un passé pas si lointain, où l’image ne prenait pas beaucoup de place pour l’information. Il ne me semble pas que cette période (avant les années 1930) ait été particulièrement stérile épistémiquement.

En tout cas, ce cynisme peut favoriser le développement d’une vertu épistémique : une certaine « sensibilité numérique » qui permettra de bien distinguer le bon grain de l’ivraie dans la masse d’images et de vidéos circulant sur Internet. .

Ce type de sensibilité numérique peut également être stimulé par ChatGPT. Les lecteurs des ouvrages de cette intelligence artificielle, échaudés par le flot de “non-sens” qui risquent d’apparaître, peuvent redoubler d’attention lorsqu’ils lisent un texte en ligne, de la même manière qu’ils peuvent redoubler d’attention (pour l’horreur) lorsqu’ils croisent une image. Tromperie par deepfake) – sans tomber dans une forme généralisée de scepticisme.

Pour que du mal sorte le bien. Plus généralement, la montée en puissance de ces IA peut mettre en lumière la nécessité de cultiver des vertus épistémiques et de combattre des vices comme la tendance trop omniprésente à ne pas remettre en cause les théories du complot circulant sur les réseaux sociaux. A terme, ces technologies dérangeantes pourraient être une bonne nouvelle pour l’éthique intellectuelle.

Source

Leave a Reply

Your email address will not be published.

Articles Liés

Back to top button