Je partage | Je m'inscris

Bonjour, c’est Sebastian Dieguez, chercheur en neurosciences à Fribourg, pour un Point de vue.

Le vendredi, c’est le jour oĂč votre newsletter laisse place Ă  une chronique, sur l’international, la politique, la justice climatique ou, en ce qui me concerne, la cognition.

Aujourd’hui, on s’intĂ©resse au moratoire de six mois sur les intelligences artificielles plus puissantes que GPT-4, publiĂ© mercredi par Elon Musk et ses copains de la Silicon Valley.

Je propose moi aussi un moratoire, mais sur le techno-bullshit. A durée indéterminée.

photo journaliste

Sebastian Dieguez,

31.03.2023

Avant d'entrer dans le vif

🐔 «Cette grippe aviaire va Ă  rebours des postulats scientifiques.» Les cas de grippe aviaire explosent dans les Ă©levages, et les meilleurs spĂ©cialistes s’avouent surpris.

⚡ Les citoyens se mettent Ă  la production d’Ă©lectricitĂ© propre. De plus en plus d’initiatives citoyennes essaiment en Suisse et en Europe. Etat des lieux en graphes.

🌌 «Nous sommes l’Univers qui se pense lui-mĂȘme.» L’astrophysicien Gianfranco Bertone se penche sur les mystĂšres de l’Univers en convoquant Dante ou Borges.

Soutenez le projet Heidi.news. Abonnez-vous dĂšs CHF 5 par mois.

📧 On vous a transfĂ©rĂ© ce Point fort?
Alors n’hĂ©sitez pas Ă  vous inscrire: c’est tous les jours et c’est gratuit.

ArrĂȘtons plutĂŽt le techno-bullshit (pour toujours)

Photo article

Pixabay / ThankYouFantasyPictures

🌐 Lire en ligne 🌐

Dans son Cycle des robots, entamĂ© en 1939, l’auteur de science-fiction Isaac Asimov avait imaginĂ© un futur dans lequel les humains cohabiteraient avec des robots intelligents et autonomes. Dans sa chronologie, les fameuses «trois lois de la robotique» ont Ă©tĂ© instaurĂ©es en 2015, apprend-on dans une nouvelle Ă©crite en 1942 (Runaround). Les fans connaissent ces trois lois par cƓur: ne pas porter atteinte Ă  un ĂȘtre humain, obĂ©ir aux ĂȘtres humains et protĂ©ger son existence propre.

Il est remarquable qu’Asimov ait introduit ces lois aprĂšs la crĂ©ation des fameux cerveaux «positroniques», donnant Ă  l’humanitĂ© un train de retard. Dans la sĂ©rie des Terminator, l’IA Skynet est soudain devenue consciente – et trĂšs trĂšs mĂ©chante – le 29 aoĂ»t 1997 Ă  2h40 du matin. LĂ  encore, l’humanitĂ© est prise au dĂ©pourvu. S’il faut en tirer une leçon, c’est peut-ĂȘtre qu’il aurait fallu songer avant aux potentielles complexitĂ©s et dĂ©rives d’IA aussi puissantes.

Le moratoire d’Elon Musk et ses copains

D’oĂč l’attrait, sans doute, pour cette rĂ©cente pĂ©tition appelant Ă  un moratoire «d’au moins six mois», portant sur «le dĂ©veloppement de systĂšmes IA plus puissants que GPT-4». SignĂ©e par plus de 1300 experts et cadres de la tech, dont Elon Musk, la lettre ouverte en appelle Ă  «prendre du recul» afin de «mettre en place des protocoles de sĂ©curité», dans le but d’éviter que ces systĂšmes nous submergent de dĂ©sinformation, nous remplacent purement et simplement, ou mĂȘme nous fassent «perdre le contrĂŽle de notre civilisation».

Bref, ça ne plaisante pas, mĂȘme les humains les plus investis dans ces technologies y voient un danger imminent, c’est dire si l’heure est grave! Sauf qu’à bien y regarder, on peut s’interroger sur la sincĂ©ritĂ© de la dĂ©marche.

Quelle est sa source, pour commencer? Il s’agit du Future of Life Institute, une organisation financĂ©e en partie par Elon Musk, oĂč l’on trouve des gourous milliardaires de la tech comme Jaan Tallinn, co-fondateur de Skype. Ce think tank promeut une philosophie «longtermiste» et l’idĂ©e d’«altruisme efficace». D’apparence philanthropique, cette idĂ©ologie est en fait dĂ©criĂ©e comme eugĂ©niste et quasi-sectaire: il s’agit de «dĂ©fendre» les lointains descendants «super intelligents» de l’espĂšce humaine lorsque ceux-ci auront colonisĂ© l’espace.

Homo sapiens aurait en effet pour mission cosmique d’enrichir l’univers de sa «valeur» incommensurable, ce qui implique de prĂ©venir les «risques existentiels» qui nous menacent Ă  long terme. Le changement climatique? Les inĂ©galitĂ©s? Le totalitarisme? Non, vous n’ĂȘtes dĂ©cidĂ©ment pas assez «longtermiste». Ces choses-lĂ  sont au contraire souhaitables, parce qu’elles permettent prĂ©cisĂ©ment de faire Ă©merger l’élite supĂ©rieure qui sera Ă  mĂȘme de perpĂ©tuer la grandeur de notre espĂšce. Les vraies menaces sont celles qui n’existent pas encore, surtout celles qui relĂšvent de la science-fiction, dont l’IA.

Sagesse de demain, folie d’aujourd’hui

C’est lĂ  tout le ridicule de cette pĂ©tition. Elle brandit un danger totalement extravagant, dont on voit mal comment il pourrait ĂȘtre dĂ©jouĂ© en six mois de rĂ©flexion par quiconque. Mais c’est lĂ  tout l’enjeu des dĂ©lires apocalyptiques et du complexe messianique qui pullulent dans la Silicon Valley: si les risques sont si importants, c’est parce que nous sommes si gĂ©niaux!

Imaginez le FC Sion exiger un moratoire de six mois, au prĂ©texte que ses joueurs vont devenir si forts que la structure mĂȘme du football risquerait de s’effondrer
 Il y aurait Ă©videmment matiĂšre Ă  rire, mais c’est bien la hype grotesque que nous vendent ces allumĂ©s de l’innovation. Du techno-bullshit en somme, dans le seul but de faire mousser leur business tout en passant pour des parangons de sagesse.

Pour ce qui concerne les vĂ©ritables problĂšmes actuels, il est bien entendu frivole de demander un quelconque moratoire. Pourtant la dĂ©sinformation exige dĂ©jĂ , les jobs sont dĂ©jĂ  supplantĂ©s par des algorithmes pourris et incontrĂŽlables, notre «civilisation» est dĂ©jĂ  menacĂ©e par des idĂ©ologues narcissiques, la richesse est dĂ©jĂ  concentrĂ©e entre les mains d’une minoritĂ© irresponsable aux idĂ©es creuses, la dĂ©mocratie est dĂ©jĂ  soumise aux lubies d’une clique qui lui doit tout et ne lui rend rien.

Mais non, le vrai danger, c’est que leurs robots arrivent, et que nous n’avons pas encore de «lois de la robotique». Laissez-leur six mois, et le futur de l’humanitĂ© sera assurĂ©… Peut-ĂȘtre devrions-nous rebondir sur cette idĂ©e, et exiger un moratoire dĂ©finitif sur le techno-bullshit des fossoyeurs de notre prĂ©sent.

🌐 Lire sur Heidi.news 🌐 (FR)

Il est temps de raconter le monde

Photo article

Vous aimez ce que vous lisez? Alors soutenez un mĂ©dia sans publicitĂ©, qui ne dĂ©pend que de ses lecteurs, en vous abonnant. 30 jours d’essai gratuit sans engagement sur votre premier abonnement.

Je m'abonne

De bonnes lectures

Le fameux moratoire, et son techno-lyrisme. «L’humanitĂ© peut jouir d’un avenir florissant grĂące Ă  l’IA. AprĂšs avoir rĂ©ussi Ă  crĂ©er de puissants systĂšmes d’IA, nous pouvons maintenant profiter d’un ‘Ă©tĂ© de l’IA’ pour en rĂ©colter les fruits, concevoir des systĂšmes pour le plus grand bĂ©nĂ©fice de tous, et donner Ă  la sociĂ©tĂ© une chance de s’adapter. La sociĂ©tĂ© a dĂ©jĂ  marquĂ© une pause concernant d’autres technologies possiblement catastrophiques, et nous pouvons faire de mĂȘme cette fois. Profitons d’un long Ă©tĂ© de l’IA et ne nous prĂ©cipitons pas sans prĂ©paration vers l’automne.»

Future of Life (accĂšs libre) (EN)

Le longtermisme, une idĂ©ologie dangereuse? Le longtermisme, trĂšs Ă  la mode chez les gourous de la Silicon Valley, se dĂ©sintĂ©resse du sort prĂ©sent des ĂȘtres humains, perspective triviale s’il en est. Seuls compte d’Ă©ventuels risques existentiels pour l’avenir glorieux de notre espĂšce. Pour le philosophe Nick Bostrom, fondateur du Future of Humanity Institute (FHI) et figure intellectuelle du mouvement, des catastrophes comme les deux guerres mondiales, l’Ă©pidĂ©mie de sida ou Tchernobyl ne sont ainsi que des incidents de l’histoire, pas vraiment dignes de figurer en haut de notre agenda global. Il faut voir la «big picture»

Aeon (accĂšs libre) (EN)

Un voyage vers Mars, et ça repart. Quel est l’objectif de long terme de l’humanitĂ©? Pour Elon Musk, un des milliardaires les plus influents de la planĂšte, l’affaire est entendue: coloniser d’autres planĂštes, en commençant par Mars. Le fondateur de Tesla et SpaceX, propriĂ©taire de Twitter, cofondateur de Neuralink et OpenAI, se voit comme NoĂ© menant l’humanitĂ© vers son arche. Pour Ă©chapper Ă  l’extinction, point de salut hors la conquĂȘte spatiale.

Aeon (accĂšs libre) (EN)

Un mot sur notre chroniqueur

Sebastian Dieguez est docteur en neurosciences, il enseigne Ă  l’UniversitĂ© de Fribourg. Ses recherches portent sur la formation des croyances et le complotisme. Il est l’auteur de Croiver: pourquoi les croyances ne sont pas ce que l’on croit (Ă©d. Eliott, 2022), Le Complotisme: cognition, culture, sociĂ©tĂ© (Ă©d. Mardaga, 2021) et Total Bullshit: au coeur de la post-vĂ©ritĂ© (PUF, 2018), ainsi que de chroniques dans l’hebdomadaire satyrique Vigousse.

Vous avez aimé? Partagez:

Facebook Twitter Linkedin Instagram
b696e884-f624-429e-91a6-1af20f5cf9e3.png

Avenue du Bouchet 2
1209 GenĂšve
Suisse