đ Lire la version Ă©toffĂ©e (abonnĂ©s) đ
đȘđș InitiĂ©e par la Commission europĂ©enne en 2020, la proposition de rĂšglement sur l’intelligence artificielle (Artificial Intelligence Act) de lâUnion EuropĂ©enne vient dâĂȘtre revue en profondeur pour prendre en compte lâarrivĂ©e des IA gĂ©nĂ©ratives comme ChatGPT.
đłïž Le texte, finalisĂ© la semaine derniĂšre et soumis au vote jeudi prochain, sera ensuite nĂ©gociĂ© avec le Conseil et la Commission pour une application possible dĂšs 2024.
đšđ Il s’agira de la premiĂšre lĂ©gislation sur lâIA au monde, et elle concernera de facto la Suisse.
đ La Chine et les Etats-Unis envisagent aussi des rĂ©gulations sur lâIA.
Au cĆur de l’AI Act. Le projet de rĂšglement europĂ©en sur lâIA prĂ©voit quatre catĂ©gories:
● Les systĂšmes dâIA à «risque inacceptable», qui seront interdits. Exemples: reconnaissance des Ă©motions, IA Ă visĂ©e rĂ©pressive, chatbots donnant des conseils malveillants.
● Les systĂšmes à «haut risque», dont lâusage sera fermement encadrĂ©, comme pour un mĂ©dicament. Il s’agit notamment d’IA opĂ©rant dans des domaines sensibles comme la santĂ©, l’Ă©ducation, le recrutement et la gestion des employĂ©s, les assurances, les crĂ©dits bancaires…
● Les systĂšmes à «risque limité», soumis Ă une exigence accrue de transparence. C’est le cas des modĂšles gĂ©nĂ©raux comme ChatGPT, un temps envisagĂ© dans la catĂ©gorie de risque supĂ©rieure.
● Les systĂšmes à «risque minimal ou nul», non rĂ©glementĂ©s. Exemples: montres connectĂ©es, jeux vidĂ©os, filtres de spam…
Les explications de texte.
➢ Co-rapporteur du comitĂ© en charge dâĂ©laborer ce texte au Parlement europĂ©en, le dĂ©putĂ© libĂ©ral roumain DragoÈ Tudorache explique:
«Le texte a beaucoup changĂ© par rapport Ă la premiĂšre version de la Commission. Le champ du haut risque a Ă©tĂ© Ă©tendu aux processus dĂ©mocratiques comme les systĂšmes de vote et lâutilisation dâIA pour influencer les Ă©lections ainsi quâĂ la gestion des migrations, aux crĂ©dits bancaires et aux assurances Ă cause des risques de catĂ©goriser des personnes ou des communautĂ©s.»
đą Le projet prĂ©voit la crĂ©ation dâun AI Office au niveau europĂ©en pour servir de mĂ©diateur entre les agences nationales qui seront chargĂ©es dâappliquer ce rĂšglement.
đšâđ« Yaniv Benhamou, professeur en droit du numĂ©rique Ă lâUniversitĂ© de GenĂšve:
«LâUnion EuropĂ©enne approche lâIA dans les termes de lâintroduction dâun nouveau produit sur le marchĂ©. La rĂ©glementation se concentre avant tout sur les IA Ă haut risque avec, comme pour un mĂ©dicament, la nĂ©cessitĂ© dâune autorisation prĂ©alable en fonction dâobligations qui nĂ©cessiteront des audits.»
Et la Suisse? Non-membre de lâUE, la Suisse subira-t-elle lâ«effet Bruxelles», c’est-Ă -dire lâapplication des rĂšgles communes par des entreprises qui dĂ©veloppent des IA pour l’Europe et n’entendent pas s’adapter Ă l’exception helvĂšte?
➢ Damien Cottier, conseiller national neuchĂątelois (PLR):
«Câest probable, et il nây a pas de doute que la Suisse devra rĂ©guler et imposer des normes avec un possible effet de mimĂ©tisme.»
➢ Thomas Schneider, vice-directeur de lâOFCOM, pilote le projet de Convention sur lâIA du Conseil de lâEurope (dont la Suisse est membre). Il vise Ă rendre les IA compatibles avec les droits de l’homme, Ă une Ă©chelle plus large que l’Europe.
La compĂ©titivitĂ©. Les dĂ©veloppeurs europĂ©ens dâIA sâinquiĂštent dĂ©jĂ dâune rĂ©gulation qui les rendrait moins compĂ©titifs sur le marchĂ© mondial.
➢ DragoÈ Tudorache (Parlement europĂ©en):
«LâAI Act propose une rĂ©gulation au travers des usages, pas de la technologie. Câest un projet centrĂ© sur lâhumain mais aussi sur lâinnovation. Pour les entreprises en particulier clientes, câest une bonne chose dans la mesure oĂč cela clarifie les rĂšgles.»
Trop peu, trop tard?
đȘđș DĂ©marrĂ©e avant lâapparition de ChatGPT, lâEU AI Act peut donner lâimpression que la politique est pour une fois en avance dans le numĂ©rique:
➢ Mais il y a dĂ©jĂ beaucoup dâIA dans les plateformes numĂ©riques, en particulier dans les systĂšmes de recommandation. La rĂ©glementation projetĂ©e sera-t-elle capable de corriger les dĂ©fauts (biais, opacitĂ©âŠ) de ces systĂšmes dĂ©jĂ dĂ©ployĂ©s et de rester adaptĂ©e Ă une technologie qui Ă©volue trĂšs vite?
➢ Le projet de rĂ©glementation ne dit rien non plus sur la protection des travailleurs prĂ©carisĂ©s par lâarrivĂ©e de lâIA. L’impact social de la technologie s’annonce pourtant majeur.
đ Lire la version Ă©toffĂ©e sur Heidi.news đ (FR)
|