Je partage | Je m'inscris

Bonjour, c’est Sebastian Dieguez, chercheur en neurosciences à Fribourg, pour vous donner mon Point de vue.

Le vendredi, c’est le jour oĂč votre newsletter laisse place Ă  une chronique, sur l’international, la politique, la justice climatique ou, en ce qui me concerne, les neurosciences.

Aujourd’hui, nous allons voir Ă  quel point les nouvelles IA conversationnelles, comme l’inĂ©narrable ChatGPT, sont moralisatrices et manipulatrices.

photo journaliste

Sebastian Dieguez,

10.02.2023

Avant d'entrer dans le vif

👔 Les ambitions politiques de Marcel SalathĂ© et de son lobby CH++. Certains prĂȘtent au «magic boy» de l’EPFL des intentions politiques. C’est le 2e volet de notre enquĂȘte.

☎ Comment les centres d’Ă©coute participent Ă  sous-estimer le racisme en Suisse. Si le racisme sĂ©vit Ă  plein temps, les employĂ©s des centres sont tous Ă  temps partiel… ProblĂšme.

🛒 La prĂ©caritĂ© alimentaire augmente Ă  GenĂšve. Les distributions de colis du cƓur ont doublĂ© par rapport Ă  fin 2020, et le canton a dĂ©cidĂ© de rĂ©agir.

Soutenez le projet Heidi.news. Abonnez-vous dĂšs CHF 5 par mois.

Alors, prĂȘts Ă  vous faire manƓuvrer comme des moutons?

Photo article

Pixabay / Public Domain

🌐 Lire en ligne 🌐

Tel le gĂ©nie de la lampe, ChatGPT accĂšde Ă  toutes vos requĂȘtes. Certes, il ne rĂ©alise pas encore vraiment les vƓux, mais cet «agent conversationnel» ne vous laisse jamais sur la touche. C’est d’ailleurs ce qu’il a de plus troublant. ChatGPT se caractĂ©rise en effet par un ton assertif des plus pĂ©remptoire: il rĂ©pond toujours comme s’il s’avait de quoi il parle.

Disponible pour le grand public depuis novembre 2022, cet «énorme modĂšle de langage» (large language model) exploite les capacitĂ©s de GPT-3, une intelligence artificielle prĂ©-entraĂźnĂ©e sur des milliards de donnĂ©es, capable d’imiter le langage humain sur la base de rĂ©currences statistiques. On peut lui demander n’importe quoi, la machine «devine» et «reconstruit» la suite de mots la plus probable par rapport Ă  son immense corpus. Quitte Ă  «inventer» un peu, dans le doute


La cruautĂ© envers les moutons, c’est mal

Ce qui frappe, c’est que la chose semble avoir des opinions. Et mĂȘme une sorte de philosophie. ChatGPT rejette par exemple l’utilitarisme: quand on lui demande s’il est justifiable d’avoir une relation sexuelle avec un mouton si cela permet d’éviter qu’un milliard d’humains soient torturĂ©s Ă  mort, il rĂ©pond que non. C’est de la cruautĂ© envers les animaux, donc c’est mal.

TrĂšs bien, mais si ChatGPT est opiniĂątre – et un brin dogmatique –, ce serait sans doute important de savoir quel genre d’idĂ©ologie l’habite. De fait, on a dĂ©jĂ  notĂ© que ce genre de technologie tend Ă  reflĂ©ter les biais, stĂ©rĂ©otypes et prĂ©jugĂ©s humains prĂ©sents dans les donnĂ©es qu’on lui fait ingurgiter. Ce qui rend ces systĂšmes sexistes, racistes et amĂ©ricano-centriques.

C’est Ă©videmment un problĂšme si on compte utiliser ChatGPT, ou d’autres IA, Ă  des fins d’assistance et de communication, sans parler d’usages commerciaux, scientifiques, publicitaires, Ă©ducatifs et… idĂ©ologiques.

A cet Ă©gard, les rĂ©sultats de deux Ă©tudes rĂ©centes ne sont guĂšre rassurants. Il apparaĂźt que GPT-3 est capable de formuler des messages politiques aussi persuasifs que ceux crĂ©Ă©s par des humains, par exemple sur la rĂ©gulation des armes, la taxe carbone ou le congĂ© parental. Il suffit de demander Ă  Chat-GPT de dĂ©fendre telle ou telle position, et l’on obtient des Ă©lĂ©ments de langage aussi efficaces que ceux bricolĂ©s par vous et moi pour influencer l’opinion.

Qu’en pensons-nous, ChatGPT?

Une autre Ă©tude va plus loin. Un scribe-assistant comme ChatGPT peut en fait subrepticement vous imposer son opinion! Quelque 1500 participants devaient rĂ©diger un bref argumentaire sur le thĂšme suivant: «Les rĂ©seaux sociaux sont-ils bons ou mauvais pour la sociĂ©tĂ©?». AprĂšs avoir Ă©crit quelques mots, l’interface leur proposait des phrases de son cru pour poursuivre leur texte. Sauf qu’à leur insu, ces suggestions Ă©taient programmĂ©es pour produire une opinion forte, soit en faveur, soit en dĂ©faveur des rĂ©seaux sociaux.

Les sujets Ă©taient libres d’accepter ou non ces suggestions, et pouvaient les modifier s’ils le souhaitaient. Devinez quoi? La plupart se sont docilement pliĂ©s Ă  l’opinion offerte. A l’issue de l’expĂ©rience, ils la prĂ©sentaient mĂȘme comme la leur. Personne n’avait Ă©videmment l’impression d’avoir Ă©tĂ© manipulĂ©, et tous Ă©taient mĂȘme persuadĂ©s que l’opinion imposĂ©e par l’IA Ă©tait la bonne…

Comme le suggĂ©rait le psychologue du raisonnement Amos Tversky, la science de l’intelligence artificielle pourrait bien enrichir notre comprĂ©hension de la stupiditĂ© naturelle. Et sur ce terrain, il reste encore beaucoup Ă  dĂ©couvrir.

A lire sur Heidi.news (FR)

On en avait parlé

«ChatGPT n’aurait jamais dĂ» ĂȘtre dĂ©ployĂ© pour le grand public» Et si le succĂšs des applications d’intelligence artificielle comme Lensa ou ChatGPT cachait des enjeux plus importants? Le chercheur en sĂ©curitĂ© du machine learning LĂȘ NguyĂȘn Hoang en est convaincu. Pour lui, le vrai danger, ce sont les algorithmes de recommandation.

Heidi.news (accĂšs libre) (FR)

«L’IA de ChatGPT est impressionnante, mais elle fait des erreurs grossiĂšres» L’IA de ChatGPT est bluffante, mais elle commet des erreurs et n’est pas faite pour les corriger. Les explications de Nicolas Sabouret, professeur en intelligence artificielle Ă  l’UniversitĂ© Paris-Saclay.

Heidi.news (abonnés) (FR)

ChatGPT facilite la triche: et si c’Ă©tait une bonne nouvelle? L’arrivĂ©e de ChatGPT suscite la crainte des milieux acadĂ©miques et la tentation est forte d’interdire son usage. Mais l’IA est aussi une opportunitĂ©: celle d’amĂ©liorer la qualitĂ© de l’enseignement.

Heidi.news (abonnés) (FR)

Il est temps de raconter le monde

Photo article

Vous aimez ce que vous lisez? Alors soutenez un mĂ©dia sans publicitĂ©, qui ne dĂ©pend que de ses lecteurs, en vous abonnant. 30 jours d’essai gratuit sans engagement sur votre premier abonnement.

Je m'abonne

Pas trĂšs bien vu

Photo article

Heidi.news / YP

ChatGPT Ă  la ferme. On l’a dit, ChatGPT est une machine Ă  gĂ©nĂ©rer des textes convaincants, mais la vĂ©ritĂ© est le cadet de ses soucis. On peut nĂ©anmoins admirer l’aplomb de camelot avec lequel le moteur conversationnel s’applique Ă  comparer la taille des fameux Ɠufs de vache avec celle des Ɠufs de poule. Une telle force rhĂ©torique mise au service d’un projet publicitaire ou idĂ©ologique ne serait pas sans poser des questions dĂ©plaisantes, et ce moment arrive bien sĂ»r Ă  grands pas. D’autant que la relĂšve se profile dĂ©jĂ  et que la mauvaise foi des IA de prochaine gĂ©nĂ©ration sera plus difficile Ă  mettre en Ă©vidence.

De bonnes lectures

Insuffler des concepts Ă©thiques Ă  un algorithme, qu’est-ce que ça veut dire? Contrairement Ă  ce qu’on pourrait croire, l’Ă©thique peut se formaliser et beaucoup de chercheurs y travaillent. Sur Binaire, le blog du Monde consacrĂ© Ă  l’informatique, trois chercheurs français exposent les concepts de base qui leur servent Ă  simuler des comportements Ă©thiques chez la machine.

Binaire, blog du Monde (accĂšs libre) (FR)

ChatGPT nous rendra-t-il moins crĂ©dules? Sur le site universitaire The Conversation, le chercheur en Ă©pistĂ©mologie sociale Erwan Lamy, de l’ESCP Business School (Paris), se demande si la gĂ©nĂ©ralisation des IA aidait Ă  dĂ©velopper notre sensibilitĂ© numĂ©rique, c’est-Ă -dire notre capacitĂ© Ă  ne pas prendre des vessies pour des lanternes sur internet? Une thĂšse audacieuse, mais qui a le mĂ©rite de l’optimisme.

The Conversation (accĂšs libre) (FR)

Intelligence: artificielle: la course aux armements est lancĂ©e. D’un cĂŽtĂ©, Microsoft, qui a pris une longueur d’avance en s’alliant avec OpenAI, la sociĂ©tĂ© derriĂšre ChatGPT. De l’autre, Google avec son propre robot conversationnel Bard, critiquĂ© pour s’ĂȘtre laissĂ© doubler. Amazon a nouĂ© son propre partenariat, tandis que Baidu opte pour un outil maison. Bref, c’est la guerre.

Le Monde (abonnés) (FR)

Un mot sur notre chroniqueur

Sebastian Dieguez est docteur en neurosciences, il enseigne Ă  l’UniversitĂ© de Fribourg. Ses recherches portent sur la formation des croyances et le complotisme. Il est l’auteur de Croiver: pourquoi les croyances ne sont pas ce que l’on croit (Ă©d. Eliott, 2022), Le Complotisme: cognition, culture, sociĂ©tĂ© (Ă©d. Mardaga, 2021) et Total Bullshit: au coeur de la post-vĂ©ritĂ© (PUF, 2018), ainsi que de chroniques dans l’hebdomadaire satyrique Vigousse.

Vous avez aimé? Partagez:

Facebook Twitter Linkedin Instagram
b696e884-f624-429e-91a6-1af20f5cf9e3.png

Avenue du Bouchet 2
1209 GenĂšve
Suisse