🌐 Lire la version étoffée (abonnés) 🌐
➢ Les IA génératives font peur: il y a quelques semaines, un moratoire appelait même à suspendre leur développement pendant plusieurs mois.
➢ Faut-il écouter les Cassandre? Les spécialistes eux-mêmes reconnaissent avoir été pris de cours… Mais peut-être pas pour les raisons que vous imaginez.
➥ Ces IA posent une double question:
● sur la nature de leur «intelligence»,
● et sur leur utilisation par l’humain.
Ouvrir la boîte noire. 🗃️ Pour évaluer l’«intelligence» de ces modèles, il faut d’abord comprendre comment ils fonctionnent.
➢ Les large language models (LLM) utilisés par les IA comme ChatGPT sont des modèles informatiques «auto-apprenants», entraînés à partir d’un immense corpus de textes.
➢ Même si les instructions de départ sont simples, la complexité du programme entraîné est immense, et son fonctionnement en grande partie impénétrable. François Fleuret, directeur du groupe de machine learning à l’Université de Genève:
«Les mathématiques derrière les modèles d’intelligence artificielle ne peuvent nous renseigner en profondeur sur la compréhension – ou non – qu’ils ont du monde.»
Noms d’oiseaux. 🐦Les débuts des LLM n’ont pas été faciles, car ils ont tendance à se comporter comme des «perroquets stochastiques», qui se contentent d’enchaîner des mots selon un modèle probabiliste.
➢ Ils peuvent tenir des propos problématiques (racistes, antisémites), en fonction des textes sur lesquels ils ont été entraînés. Une mésaventure qu’a connu Microsoft en 2016, avec son chatbot Tay entraîné sur Twitter.
➢ Pour éviter cet écueil avec ChatGPT, OpenAI a eu recours à des travailleurs humains pour hiérarchiser les réponses données par l’IA sur plusieurs milliers de questions, éliminant au passage les propos les plus offensants.
➢ Il n’empêche que le modèle n’a aucun moyen – autre que statistique – d’évaluer une proposition comme “la Terre est plate”. «On ne peut pas demander à des modèles comme ChatGPT de distinguer le vrai du faux.», rappelle François Fleuret.
La morale des machines. 🧭 En revanche, les utilisateurs de ces IA sont aisément influencés par ce qui pourrait apparaître comme des visions du monde, des jugements ou des conseils.
➢ Récemment, le cas d’un trentenaire belge ayant mis fin à ses jours après avoir discuté régulièrement avec un chatbot a défrayé la chronique.
➢ Jean-François Bonnefon, chercheur en psychologie cognitive au CNRS (France):
«Dans le meilleur des mondes, [l’IA] ne serait utilisée que par des experts capables de détecter rapidement les erreurs. Mais beaucoup de gens vont utiliser ces chatbots pour des choses qu’ils savent mal faire, y compris demander des conseils sur des décisions morales.»
Place aux bons experts. 🎭 Pour anticiper ces problèmes, la main est aux spécialistes des comportements humains: psychologues, sociologues, anthropologues. Jean-François Bonnefon:
«Du point de vue des sciences du comportement, il sera intéressant de travailler sur deux aspects:
● d’un côté, tester les capacités morales de ChatGPT,
● mais aussi tester la façon dont l’humain s’y adapte et réagit. L’une des difficultés sera d’anticiper tous les cas de figure possible, car ChatGPT n’est limité que par l’imagination de ses utilisateurs.»
🌐Lire la version étoffée sur Heidi.news 🌐 (FR)
|