Je partage | Je m'inscris

Bonjour, c’est Sarah pour votre Point fort du jour.

Aujourd’hui, je vous parle des peurs, rationnelles ou non, que suscitent ChatGPT et les nouvelles intelligences artificielles.

Et si on se trompait de cible? Pour le savoir, ouvrons la boĂźte noire.

photo journaliste

Sarah Sermondadaz, GenĂšve

13.04.2023

Avant d'entrer dans le vif

👼 L’IA contre la mafia. Des chercheurs italiens ont mis au point une IA qui permet de traquer les entreprises infiltrĂ©es par la mafia. Un systĂšme prometteur, mais pas dĂ©nuĂ© de limites.

đŸȘ Lancement reportĂ© Ă  demain pour la mission Juice. Le lancement de l’ambitieuse mission europĂ©enne a Ă©tĂ© reportĂ© Ă  demain pour des raisons mĂ©tĂ©orologiques.

🌎 Pollueur, payeur? Pas pour tout le monde. D’aprĂšs Das Lamm, la Suisse a exemptĂ© des entreprises polluantes de taxe CO2, Ă  hauteur de 3 milliards de francs entre 2013 et 2020.

Heidi.news fĂȘte ses 5 ans! Profitez de 50% de rabais sur nos abonnements

📧 On vous a transfĂ©rĂ© ce Point fort?
Alors n’hĂ©sitez pas Ă  vous inscrire: c’est tous les jours et c’est gratuit.

🙏 Vous voulez nous rendre service?
Donnez-nous votre avis sur cette newsletter, vos retours sont précieux!

De bonnes raisons d'avoir peur

Photo article

Daniel Juƙena / Creative Commons

🌐 Lire la version Ă©toffĂ©e (abonnĂ©s) 🌐

Les IA gĂ©nĂ©ratives font peur: il y a quelques semaines, un moratoire appelait mĂȘme Ă  suspendre leur dĂ©veloppement pendant plusieurs mois.

Faut-il Ă©couter les Cassandre? Les spĂ©cialistes eux-mĂȘmes reconnaissent avoir Ă©tĂ© pris de cours
 Mais peut-ĂȘtre pas pour les raisons que vous imaginez.

Ces IA posent une double question:

sur la nature de leur «intelligence»,

et sur leur utilisation par l’humain.

Ouvrir la boĂźte noire. đŸ—ƒïž Pour Ă©valuer l’«intelligence» de ces modĂšles, il faut d’abord comprendre comment ils fonctionnent.

Les large language models (LLM) utilisĂ©s par les IA comme ChatGPT sont des modĂšles informatiques «auto-apprenants», entraĂźnĂ©s Ă  partir d’un immense corpus de textes.

MĂȘme si les instructions de dĂ©part sont simples, la complexitĂ© du programme entraĂźnĂ© est immense, et son fonctionnement en grande partie impĂ©nĂ©trable. François Fleuret, directeur du groupe de machine learning Ă  l’UniversitĂ© de GenĂšve:

«Les mathĂ©matiques derriĂšre les modĂšles d’intelligence artificielle ne peuvent nous renseigner en profondeur sur la comprĂ©hension – ou non – qu’ils ont du monde.»

Noms d’oiseaux. 🐩Les dĂ©buts des LLM n’ont pas Ă©tĂ© faciles, car ils ont tendance Ă  se comporter comme des «perroquets stochastiques», qui se contentent d’enchaĂźner des mots selon un modĂšle probabiliste.

Ils peuvent tenir des propos problĂ©matiques (racistes, antisĂ©mites), en fonction des textes sur lesquels ils ont Ă©tĂ© entraĂźnĂ©s. Une mĂ©saventure qu’a connu Microsoft en 2016, avec son chatbot Tay entraĂźnĂ© sur Twitter.

Pour Ă©viter cet Ă©cueil avec ChatGPT, OpenAI a eu recours Ă  des travailleurs humains pour hiĂ©rarchiser les rĂ©ponses donnĂ©es par l’IA sur plusieurs milliers de questions, Ă©liminant au passage les propos les plus offensants.

Il n’empĂȘche que le modĂšle n’a aucun moyen – autre que statistique – d’Ă©valuer une proposition comme “la Terre est plate”. «On ne peut pas demander Ă  des modĂšles comme ChatGPT de distinguer le vrai du faux.», rappelle François Fleuret.

La morale des machines. 🧭 En revanche, les utilisateurs de ces IA sont aisĂ©ment influencĂ©s par ce qui pourrait apparaĂźtre comme des visions du monde, des jugements ou des conseils.

RĂ©cemment, le cas d’un trentenaire belge ayant mis fin Ă  ses jours aprĂšs avoir discutĂ© rĂ©guliĂšrement avec un chatbot a dĂ©frayĂ© la chronique.

Jean-François Bonnefon, chercheur en psychologie cognitive au CNRS (France):

«Dans le meilleur des mondes, [l’IA] ne serait utilisĂ©e que par des experts capables de dĂ©tecter rapidement les erreurs. Mais beaucoup de gens vont utiliser ces chatbots pour des choses qu’ils savent mal faire, y compris demander des conseils sur des dĂ©cisions morales.»

Place aux bons experts. 🎭 Pour anticiper ces problĂšmes, la main est aux spĂ©cialistes des comportements humains: psychologues, sociologues, anthropologues. Jean-François Bonnefon:

«Du point de vue des sciences du comportement, il sera intéressant de travailler sur deux aspects:

 ● d’un cĂŽtĂ©, tester les capacitĂ©s morales de ChatGPT,

 ● mais aussi tester la façon dont l’humain s’y adapte et rĂ©agit. L’une des difficultĂ©s sera d’anticiper tous les cas de figure possible, car ChatGPT n’est limitĂ© que par l’imagination de ses utilisateurs.»


🌐Lire la version Ă©toffĂ©e sur Heidi.news 🌐 (FR)

On en avait parlé

đŸš« Un moratoire qui Ă©lude les vrais enjeux. Un moratoire sur le dĂ©veloppement des IA est-il justifiĂ©? Parmi les spĂ©cialistes, la question divise. Le risque serait de provoquer davantage d’opacitĂ© sur les dĂ©veloppements en cours.

💀 Et si on arrĂȘtait plutĂŽt le techno-bullshit? Elon Musk et d’autres gourous de la Silicon Valley ont proposĂ© un moratoire de six mois sur les IA pour laisser le temps Ă  l’humanitĂ© de se prĂ©parer. Un exemple de techno-bullshit, pour notre chroniqueur Sebastian Dieguez, chercheur en neurosciences Ă  Fribourg.

đŸ’Œ Les emplois de bureau en premiĂšre ligne. BientĂŽt remplacĂ©s par l’IA? Les emplois de col blanc, une fois n’est pas coutume, sont particuliĂšrement exposĂ©s.

Il est temps de raconter le monde

Photo article

✹ Heidi.news fĂȘte son premier lustre. Pour cĂ©lĂ©brer nos cinq ans, profitez de 50% de rabais sur nos abonnements et nos bons cadeaux. Nos offres anniversaires sont valables jusqu’au dimanche 12 mai inclus: faites vite!

Découvrez aussi notre toute nouvelle Exploration axée solutions, On a trouvé des journalistes heureux, qui dresse le portrait de médias qui marchent. Bonne lecture!

Voir les abonnements

Bien vu

Photo article

Elden Ring

IA contre humanitĂ©, un match de jeu vidĂ©o? Faut-il avoir peur que les IA se retournent contre nous? Julian Togelius, professeur en informatique Ă  l’UniversitĂ© de New York, rappelle que l’intelligence est avant tout adaptation Ă  une niche Ă©cologique donnĂ©e, et reformule la question ab absurdo: un jeu vidĂ©o comme Elden Ring pose-t-il davantage de risque pour l’humanitĂ© qu’un programme comme Excel?

Blog de Julian Togelius (accĂšs libre) (EN)

De bonnes lectures

Emily Bender et son fabuleux bestiaire. Avant son fameux article sur les «perroquets stochastiques» de l’intelligence artificielle, la linguiste amĂ©ricaine s’Ă©tait dĂ©jĂ  distinguĂ©e par d’autres expĂ©riences de pensĂ©e portant sur le langage naturel, mettant notamment en scĂšne une pieuvre. Le New York Magazine a brossĂ© son portrait.

New York Magazine (accĂšs libre) (EN)

Les confessions d’un professionel de l’IA. La rĂ©volution ChatGPT a aussi conduit Ă  l’abandon de projets de recherche ou de dĂ©veloppement sur l’IA. L’Ă©cosystĂšme a la gueule de bois, comme le raconte Nathan Lambert, spĂ©cialiste en traitement de donnĂ©es pour la sociĂ©tĂ© Huggingface.

Substack (accĂšs libre) (EN)

Des intelligences dĂ©sincarnĂ©es. Les IA peuvent-elles vraiment prĂ©tendre Ă  l’intelligence si elles ne sont pas dotĂ©es d’un corps physique et des perceptions qui vont avec? Le problĂšme corps-esprit n’anime plus seulement les philosophes, mais aussi les chercheurs en IA. La prochaine gĂ©nĂ©ration de robots rĂ©unira peut-ĂȘtre le meilleur des deux mondes.

New York Times (accÚs limité) (EN)

Vous avez aimé? Partagez:

Facebook Twitter Linkedin Instagram
b696e884-f624-429e-91a6-1af20f5cf9e3.png

Avenue du Bouchet 2
1209 GenĂšve
Suisse