Je partage | Je m'inscris

Bonjour, c’est Sarah pour votre Point fort du jour.

Aujourd’hui, je vous parle des peurs, rationnelles ou non, que suscitent ChatGPT et les nouvelles intelligences artificielles.

Et si on se trompait de cible? Pour le savoir, ouvrons la boîte noire.

photo journaliste

Sarah Sermondadaz, Genève

13.04.2023

Avant d'entrer dans le vif

👮 L’IA contre la mafia. Des chercheurs italiens ont mis au point une IA qui permet de traquer les entreprises infiltrées par la mafia. Un système prometteur, mais pas dénué de limites.

🪐 Lancement reporté à demain pour la mission Juice. Le lancement de l’ambitieuse mission européenne a été reporté à demain pour des raisons météorologiques.

🌎 Pollueur, payeur? Pas pour tout le monde. D’après Das Lamm, la Suisse a exempté des entreprises polluantes de taxe CO2, à hauteur de 3 milliards de francs entre 2013 et 2020.

📧 On vous a transféré ce Point fort?
Alors n’hésitez pas à vous inscrire: c’est tous les jours et c’est gratuit.

🙏 Vous voulez nous rendre service?
Donnez-nous votre avis sur cette newsletter, vos retours sont précieux!

De bonnes raisons d'avoir peur

Photo article

Daniel Juřena / Creative Commons

🌐 Lire la version étoffée (abonnés) 🌐

Les IA génératives font peur: il y a quelques semaines, un moratoire appelait même à suspendre leur développement pendant plusieurs mois.

Faut-il écouter les Cassandre? Les spécialistes eux-mêmes reconnaissent avoir été pris de cours… Mais peut-être pas pour les raisons que vous imaginez.

Ces IA posent une double question:

sur la nature de leur «intelligence»,

et sur leur utilisation par l’humain.

Ouvrir la boîte noire. 🗃️ Pour évaluer l’«intelligence» de ces modèles, il faut d’abord comprendre comment ils fonctionnent.

Les large language models (LLM) utilisés par les IA comme ChatGPT sont des modèles informatiques «auto-apprenants», entraînés à partir d’un immense corpus de textes.

Même si les instructions de départ sont simples, la complexité du programme entraîné est immense, et son fonctionnement en grande partie impénétrable. François Fleuret, directeur du groupe de machine learning à l’Université de Genève:

«Les mathématiques derrière les modèles d’intelligence artificielle ne peuvent nous renseigner en profondeur sur la compréhension – ou non – qu’ils ont du monde.»

Noms d’oiseaux. 🐦Les débuts des LLM n’ont pas été faciles, car ils ont tendance à se comporter comme des «perroquets stochastiques», qui se contentent d’enchaîner des mots selon un modèle probabiliste.

Ils peuvent tenir des propos problématiques (racistes, antisémites), en fonction des textes sur lesquels ils ont été entraînés. Une mésaventure qu’a connu Microsoft en 2016, avec son chatbot Tay entraîné sur Twitter.

Pour éviter cet écueil avec ChatGPT, OpenAI a eu recours à des travailleurs humains pour hiérarchiser les réponses données par l’IA sur plusieurs milliers de questions, éliminant au passage les propos les plus offensants.

Il n’empêche que le modèle n’a aucun moyen – autre que statistique – d’évaluer une proposition comme “la Terre est plate”. «On ne peut pas demander à des modèles comme ChatGPT de distinguer le vrai du faux.», rappelle François Fleuret.

La morale des machines. 🧭 En revanche, les utilisateurs de ces IA sont aisément influencés par ce qui pourrait apparaître comme des visions du monde, des jugements ou des conseils.

Récemment, le cas d’un trentenaire belge ayant mis fin à ses jours après avoir discuté régulièrement avec un chatbot a défrayé la chronique.

Jean-François Bonnefon, chercheur en psychologie cognitive au CNRS (France):

«Dans le meilleur des mondes, [l’IA] ne serait utilisée que par des experts capables de détecter rapidement les erreurs. Mais beaucoup de gens vont utiliser ces chatbots pour des choses qu’ils savent mal faire, y compris demander des conseils sur des décisions morales.»

Place aux bons experts. 🎭 Pour anticiper ces problèmes, la main est aux spécialistes des comportements humains: psychologues, sociologues, anthropologues. Jean-François Bonnefon:

«Du point de vue des sciences du comportement, il sera intéressant de travailler sur deux aspects:

 ● d’un côté, tester les capacités morales de ChatGPT,

 ● mais aussi tester la façon dont l’humain s’y adapte et réagit. L’une des difficultés sera d’anticiper tous les cas de figure possible, car ChatGPT n’est limité que par l’imagination de ses utilisateurs.»


🌐Lire la version étoffée sur Heidi.news 🌐 (FR)

On en avait parlé

🚫 Un moratoire qui élude les vrais enjeux. Un moratoire sur le développement des IA est-il justifié? Parmi les spécialistes, la question divise. Le risque serait de provoquer davantage d’opacité sur les développements en cours.

💀 Et si on arrêtait plutôt le techno-bullshit? Elon Musk et d’autres gourous de la Silicon Valley ont proposé un moratoire de six mois sur les IA pour laisser le temps à l’humanité de se préparer. Un exemple de techno-bullshit, pour notre chroniqueur Sebastian Dieguez, chercheur en neurosciences à Fribourg.

💼 Les emplois de bureau en première ligne. Bientôt remplacés par l’IA? Les emplois de col blanc, une fois n’est pas coutume, sont particulièrement exposés.

Bien vu

Photo article

Elden Ring

IA contre humanité, un match de jeu vidéo? Faut-il avoir peur que les IA se retournent contre nous? Julian Togelius, professeur en informatique à l’Université de New York, rappelle que l’intelligence est avant tout adaptation à une niche écologique donnée, et reformule la question ab absurdo: un jeu vidéo comme Elden Ring pose-t-il davantage de risque pour l’humanité qu’un programme comme Excel?

Blog de Julian Togelius (accès libre) (EN)

De bonnes lectures

Emily Bender et son fabuleux bestiaire. Avant son fameux article sur les «perroquets stochastiques» de l’intelligence artificielle, la linguiste américaine s’était déjà distinguée par d’autres expériences de pensée portant sur le langage naturel, mettant notamment en scène une pieuvre. Le New York Magazine a brossé son portrait.

New York Magazine (accès libre) (EN)

Les confessions d’un professionel de l’IA. La révolution ChatGPT a aussi conduit à l’abandon de projets de recherche ou de développement sur l’IA. L’écosystème a la gueule de bois, comme le raconte Nathan Lambert, spécialiste en traitement de données pour la société Huggingface.

Substack (accès libre) (EN)

Des intelligences désincarnées. Les IA peuvent-elles vraiment prétendre à l’intelligence si elles ne sont pas dotées d’un corps physique et des perceptions qui vont avec? Le problème corps-esprit n’anime plus seulement les philosophes, mais aussi les chercheurs en IA. La prochaine génération de robots réunira peut-être le meilleur des deux mondes.

New York Times (accès limité) (EN)

Vous avez aimé? Partagez:

Facebook Twitter Linkedin Instagram
b696e884-f624-429e-91a6-1af20f5cf9e3.png

Avenue du Bouchet 2
1209 Genève
Suisse