Bonjour, câest Sebastian Dieguez, chercheur en neurosciences Ă Fribourg, pour un Point de vue.
Le vendredi, c’est le jour oĂč votre newsletter laisse place Ă une chronique, sur l’international, la politique, la justice climatique ou, en ce qui me concerne, la cognition.
Aujourd’hui, on s’intĂ©resse au moratoire de six mois sur les intelligences artificielles plus puissantes que GPT-4, publiĂ© mercredi par Elon Musk et ses copains de la Silicon Valley.
Je propose moi aussi un moratoire, mais sur le techno-bullshit. A durée indéterminée. |
Avant d'entrer dans le vif
|
|
ArrĂȘtons plutĂŽt le techno-bullshit (pour toujours)
|
Pixabay / ThankYouFantasyPictures
|
đ Lire en ligne đ
Dans son Cycle des robots, entamĂ© en 1939, lâauteur de science-fiction Isaac Asimov avait imaginĂ© un futur dans lequel les humains cohabiteraient avec des robots intelligents et autonomes. Dans sa chronologie, les fameuses «trois lois de la robotique» ont Ă©tĂ© instaurĂ©es en 2015, apprend-on dans une nouvelle Ă©crite en 1942 (Runaround). Les fans connaissent ces trois lois par cĆur: ne pas porter atteinte Ă un ĂȘtre humain, obĂ©ir aux ĂȘtres humains et protĂ©ger son existence propre.
Il est remarquable quâAsimov ait introduit ces lois aprĂšs la crĂ©ation des fameux cerveaux «positroniques», donnant Ă lâhumanitĂ© un train de retard. Dans la sĂ©rie des Terminator, lâIA Skynet est soudain devenue consciente â et trĂšs trĂšs mĂ©chante â le 29 aoĂ»t 1997 Ă 2h40 du matin. LĂ encore, lâhumanitĂ© est prise au dĂ©pourvu. Sâil faut en tirer une leçon, câest peut-ĂȘtre quâil aurait fallu songer avant aux potentielles complexitĂ©s et dĂ©rives dâIA aussi puissantes.
Le moratoire dâElon Musk et ses copains
DâoĂč lâattrait, sans doute, pour cette rĂ©cente pĂ©tition appelant Ă un moratoire «dâau moins six mois», portant sur «le dĂ©veloppement de systĂšmes IA plus puissants que GPT-4». SignĂ©e par plus de 1300 experts et cadres de la tech, dont Elon Musk, la lettre ouverte en appelle à «prendre du recul» afin de «mettre en place des protocoles de sĂ©curité», dans le but dâĂ©viter que ces systĂšmes nous submergent de dĂ©sinformation, nous remplacent purement et simplement, ou mĂȘme nous fassent «perdre le contrĂŽle de notre civilisation».
Bref, ça ne plaisante pas, mĂȘme les humains les plus investis dans ces technologies y voient un danger imminent, câest dire si lâheure est grave! Sauf quâĂ bien y regarder, on peut sâinterroger sur la sincĂ©ritĂ© de la dĂ©marche.
Quelle est sa source, pour commencer? Il sâagit du Future of Life Institute, une organisation financĂ©e en partie par Elon Musk, oĂč lâon trouve des gourous milliardaires de la tech comme Jaan Tallinn, co-fondateur de Skype. Ce think tank promeut une philosophie «longtermiste» et lâidĂ©e dâ«altruisme efficace». Dâapparence philanthropique, cette idĂ©ologie est en fait dĂ©criĂ©e comme eugĂ©niste et quasi-sectaire: il sâagit de «dĂ©fendre» les lointains descendants «super intelligents» de lâespĂšce humaine lorsque ceux-ci auront colonisĂ© lâespace.
Homo sapiens aurait en effet pour mission cosmique dâenrichir lâunivers de sa «valeur» incommensurable, ce qui implique de prĂ©venir les «risques existentiels» qui nous menacent Ă long terme. Le changement climatique? Les inĂ©galitĂ©s? Le totalitarisme? Non, vous nâĂȘtes dĂ©cidĂ©ment pas assez «longtermiste». Ces choses-lĂ sont au contraire souhaitables, parce quâelles permettent prĂ©cisĂ©ment de faire Ă©merger lâĂ©lite supĂ©rieure qui sera Ă mĂȘme de perpĂ©tuer la grandeur de notre espĂšce. Les vraies menaces sont celles qui nâexistent pas encore, surtout celles qui relĂšvent de la science-fiction, dont lâIA.
Sagesse de demain, folie dâaujourdâhui
Câest lĂ tout le ridicule de cette pĂ©tition. Elle brandit un danger totalement extravagant, dont on voit mal comment il pourrait ĂȘtre dĂ©jouĂ© en six mois de rĂ©flexion par quiconque. Mais câest lĂ tout lâenjeu des dĂ©lires apocalyptiques et du complexe messianique qui pullulent dans la Silicon Valley: si les risques sont si importants, câest parce que nous sommes si gĂ©niaux!
Imaginez le FC Sion exiger un moratoire de six mois, au prĂ©texte que ses joueurs vont devenir si forts que la structure mĂȘme du football risquerait de sâeffondrer⊠Il y aurait Ă©videmment matiĂšre Ă rire, mais câest bien la hype grotesque que nous vendent ces allumĂ©s de lâinnovation. Du techno-bullshit en somme, dans le seul but de faire mousser leur business tout en passant pour des parangons de sagesse.
Pour ce qui concerne les vĂ©ritables problĂšmes actuels, il est bien entendu frivole de demander un quelconque moratoire. Pourtant la dĂ©sinformation exige dĂ©jĂ , les jobs sont dĂ©jĂ supplantĂ©s par des algorithmes pourris et incontrĂŽlables, notre «civilisation» est dĂ©jĂ menacĂ©e par des idĂ©ologues narcissiques, la richesse est dĂ©jĂ concentrĂ©e entre les mains dâune minoritĂ© irresponsable aux idĂ©es creuses, la dĂ©mocratie est dĂ©jĂ soumise aux lubies dâune clique qui lui doit tout et ne lui rend rien.
Mais non, le vrai danger, câest que leurs robots arrivent, et que nous nâavons pas encore de «lois de la robotique». Laissez-leur six mois, et le futur de lâhumanitĂ© sera assurĂ©… Peut-ĂȘtre devrions-nous rebondir sur cette idĂ©e, et exiger un moratoire dĂ©finitif sur le techno-bullshit des fossoyeurs de notre prĂ©sent.
đ Lire sur Heidi.news đ (FR)
|
|
Il est temps de raconter le monde
|
Vous aimez ce que vous lisez?
Alors soutenez un mĂ©dia sans publicitĂ©, qui ne dĂ©pend que de ses lecteurs, en vous abonnant. 30 jours dâessai gratuit sans engagement sur votre premier abonnement.
|
|
Le fameux moratoire, et son techno-lyrisme.
«L’humanitĂ© peut jouir d’un avenir florissant grĂące Ă l’IA. AprĂšs avoir rĂ©ussi Ă crĂ©er de puissants systĂšmes d’IA, nous pouvons maintenant profiter d’un ‘Ă©tĂ© de l’IA’ pour en rĂ©colter les fruits, concevoir des systĂšmes pour le plus grand bĂ©nĂ©fice de tous, et donner Ă la sociĂ©tĂ© une chance de s’adapter. La sociĂ©tĂ© a dĂ©jĂ marquĂ© une pause concernant d’autres technologies possiblement catastrophiques, et nous pouvons faire de mĂȘme cette fois. Profitons d’un long Ă©tĂ© de l’IA et ne nous prĂ©cipitons pas sans prĂ©paration vers l’automne.»
Future of Life (accĂšs libre) (EN)
|
Le longtermisme, une idéologie dangereuse?
Le longtermisme, trĂšs Ă la mode chez les gourous de la Silicon Valley, se dĂ©sintĂ©resse du sort prĂ©sent des ĂȘtres humains, perspective triviale s’il en est. Seuls compte d’Ă©ventuels risques existentiels pour l’avenir glorieux de notre espĂšce. Pour le philosophe Nick Bostrom, fondateur du Future of Humanity Institute (FHI) et figure intellectuelle du mouvement, des catastrophes comme les deux guerres mondiales, l’Ă©pidĂ©mie de sida ou Tchernobyl ne sont ainsi que des incidents de l’histoire, pas vraiment dignes de figurer en haut de notre agenda global. Il faut voir la «big picture»…
Aeon (accĂšs libre) (EN)
|
Un voyage vers Mars, et ça repart.
Quel est l’objectif de long terme de l’humanitĂ©? Pour Elon Musk, un des milliardaires les plus influents de la planĂšte, l’affaire est entendue: coloniser d’autres planĂštes, en commençant par Mars. Le fondateur de Tesla et SpaceX, propriĂ©taire de Twitter, cofondateur de Neuralink et OpenAI, se voit comme NoĂ© menant l’humanitĂ© vers son arche. Pour Ă©chapper Ă l’extinction, point de salut hors la conquĂȘte spatiale.
Aeon (accĂšs libre) (EN)
|
|
Un mot sur notre chroniqueur
|
Sebastian Dieguez est docteur en neurosciences, il enseigne Ă lâUniversitĂ© de Fribourg. Ses recherches portent sur la formation des croyances et le complotisme. Il est lâauteur de Croiver: pourquoi les croyances ne sont pas ce que lâon croit (Ă©d. Eliott, 2022), Le Complotisme: cognition, culture, sociĂ©tĂ© (Ă©d. Mardaga, 2021) et Total Bullshit: au coeur de la post-vĂ©ritĂ© (PUF, 2018), ainsi que de chroniques dans l’hebdomadaire satyrique Vigousse.
|
|
|
Avenue du Bouchet 2
1209 GenĂšve
Suisse
|
|
|