Bonjour, câest Sarah pour votre Point fort du jour.
Aujourd’hui, je vous parle du mariage de l’intelligence artificielle et de la mĂ©decine.
Le corps mĂ©dical juge avec prudence l’essor des IA: les blouses blanches n’affectionnent guĂšre les boĂźtes noires.
Pourrait-on malgré tout réunir le meilleur des deux mondes? |
Avant d'entrer dans le vif
|
|
Face à l'essor de l'IA en santé, la prudence des médecins
|
Image gĂ©nĂ©rĂ©e par le modĂšle Lexica Aperture avec l’instruction: «A robot wearing a white coat, standing next to a medical doctor»
|
đ Lire la version Ă©toffĂ©e (abonnĂ©s) đ
➢ LâIA peut-elle ĂȘtre une chance pour la mĂ©decine?
➢ A priori, c’est compliquĂ©. En dĂ©pit de ses aspects scientifiques et techniques, la mĂ©decine reste une science humaine, fondĂ©e sur la relation entre le mĂ©decin et son patient.
➥ L’IA pourrait malgrĂ© tout aider Ă replacer lâhumain au cĆur de la pratique mĂ©dicale… A plusieurs conditions:
● si elle ne se substitue jamais Ă la dĂ©cision mĂ©dicale,
● et si elle parvient Ă libĂ©rer le mĂ©decin dâune partie des tĂąches rĂ©pĂ©titives et chronophages qui lui incombent.
Il n’y a pas de docteur IA. Pour lâheure, il sâagit tout au plus de systĂšmes dâaide Ă la dĂ©cision, celle-ci revenant in fine Ă lâhumain, illustrent les spĂ©cialistes:
đ «Cet essor de lâIA sâinscrit dans le long historique de lâinformatique mĂ©dicale: cela fait depuis 1950 que lâon parle de dossier Ă©lectronique, rappelle le Dr François Bastardot, responsable de l’information mĂ©dicale au CHUV.
đ©ș Il est important que ces technologies, en plus de respecter le contexte lĂ©gal existant, parviennent Ă sâinscrire dans les habitudes des mĂ©decins, tout en respectant nos standards et nos bonnes pratiques», ajoute-t-il. «Il existe des directives de la FMH concernant lâIA, mais elles sont peu connues», complĂšte le Dr Marc-Antoine Bornet.
đ«A lâhĂŽpital, vous ĂȘtes bombardĂ©s de multiples alertes, dont peu sont vraiment utiles au lit du malade, poursuit le Dr François Bastardot. Si lâIA se contente dâaugmenter le nombre dâalertes sans veiller Ă les prioriser, le seul effet sera dâaugmenter la fatigue du mĂ©decin â et le risque dâignorer une vĂ©ritable urgence remontĂ©e par une de ces alertes.»
«Evidence based medicine» contre boĂźtes noires. LâIA devrait thĂ©oriquement respecter les mĂȘmes principes qui sâappliquent Ă la recherche biomĂ©dicale: ĂȘtre fondĂ©e sur des preuves tangibles.
⏠Dans les faits, les solutions commercialisĂ©es peuvent sâapparenter Ă des boĂźtes noires. Watson, lâIA dâIBM qui devait rĂ©volutionner dĂšs 2015 la pratique de la mĂ©decine, sâest ainsi heurtĂ©e Ă un gros problĂšme: les donnĂ©es mĂ©dicales sur lesquelles elle avait Ă©tĂ© entraĂźnĂ©e nâĂ©taient pas reprĂ©sentatives des populations des hĂŽpitaux oĂč elle a pu ĂȘtre utilisĂ©eâŠ
«Il faut que nos confrĂšres restent critiques face aux arguments marketings des sociĂ©tĂ©s qui vendent ces outils dâIA, insiste le Dr François Bastardot. La validation externe qui sâapplique en recherche clinique devrait aussi sâappliquer aux produits qui utilisent lâIA Ă des fins mĂ©dicales.»
đ¶ïžLe fond du problĂšme, câest aussi la façon dont les systĂšmes de machine learning fonctionnent. PlutĂŽt que de suivre un cheminement diagnostique dĂ©fini de maniĂšre explicite, comme les mĂ©decins, les IA apprennent Ă partir dâun grand nombre dâexemples diffĂ©rents⊠sans pouvoir toujours expliciter la rĂšgle quâils appliquent.
âïž Cette particularitĂ© nâest pas sans consĂ©quence pour le droit:
«Le mĂ©decin et/ou lâhĂŽpital restent responsables de lâutilisation qui est faite des IA mĂ©dicales, rappelle François Charlet, juriste spĂ©cialisĂ© dans le droit des nouvelles technologies. La loi fĂ©dĂ©rale sur la responsabilitĂ© du fait des produits, qui Ă©tablit le principe de la responsabilitĂ© du producteur en cas de dommage causĂ© par son produit qui prĂ©sente un dĂ©faut, permet thĂ©oriquement dâattaquer les dĂ©veloppeurs dâune IA dĂ©fectueuse». Dans les faits, cette responsabilitĂ© est souvent compliquĂ©e Ă prouver avec l’IA.
đ„Œ Longtemps, lâinformatique mĂ©dicale a surtout Ă©tĂ© une affaire dâingĂ©nieurs oĂč les mĂ©decins avaient peu leur mot Ă dire… Cela doit changer, martĂšle le Dr Bastardot.
«Si vous engagiez un assistant mĂ©dical pour vous aider, par exemple sur les recherches de littĂ©rature, vous apprendriez Ă vous connaĂźtre avant de travailler ensemble. Câest la mĂȘme chose pour lâIA.»
Des patients humains, trop humains.
đ«Il n’y a pas de e-patients et de e-cancers, il n’y a que des patients et des cancers qui ne sont jamais comme dans les livres», lançait en mai dernier, Ă lâantenne de la RTS, Christian Lovis, mĂ©decin-chef du service des sciences de lâinformation mĂ©dicale aux HUG.
đïž Â«Notre force dâhumains, câest de savoir quand sortir des modĂšles, confirme François Bastardot. Le mĂ©decin doit pouvoir sortir des guidelines lorsquâil estime que non, le patient en question nâest pas reprĂ©sentatif. Il doit pouvoir reprendre le contrĂŽle, exactement comme le ferait le pilote dâun vĂ©hicule high-tech.»
đ Lire la version Ă©toffĂ©e sur Heidi.news đ (FR)
|
|
Pour unir IA et médecine, réconcilier ingénieurs et cliniciens.
Pour concevoir une IA, il faut des informaticiens. Mais pour fabriquer une IA mĂ©dicale, il faut aussi des cliniciens. Regards croisĂ©s de plusieurs experts, qui s’accordent sur un point important: les deux corps de mĂ©tier doivent travailler main dans la main, car la machine ne peut remplacer le praticien et la mĂ©decine reste un art.
Heidi.news (FR)
|
|
Il est temps de raconter le monde
|
|
L'IA, la brute et le truand
|
WallHere / szaborozika
|
Les assureurs en embuscade.
Le corps mĂ©dical n’est pas le seul Ă trouver intĂ©rĂȘt aux algorithmes: c’est aussi le cas des assureurs, en particulier aux Etats-Unis. Une enquĂȘte exhaustive de Stat News montre comment les algorithmes utilisĂ©s par les assureurs peuvent se retourner contre les patients, et leur refuser une couverture santĂ© Ă laquelle ils sont pourtant Ă©ligibles en thĂ©orie… Et ce, en toute opacitĂ©. Sur la plateforme mĂ©dicale KevinMD, une mĂ©decin oncologue revient sur l’affaire.
KevinMD (accĂšs libre) (EN)
|
|
Médecine artificielle ou intelligence augmentée?
Dans ce dossier thĂ©matique publiĂ© par la revue trimestrielle de la SociĂ©tĂ© Vaudoise de MĂ©decine (SVM), plusieurs mĂ©decins s’interrogent sur le recours Ă l’IA par le corps mĂ©dical suisse. Pour eux, le «remplacement» du mĂ©decin par l’IA n’est pas Ă l’ordre du jour. Mais bien utilisĂ©e, l’IA pourrait rendre la pratique de la mĂ©decine plus humaine.
Site de la SVM (accĂšs libre) (FR)
|
Watson en mĂ©decine, anatomie d’un Ă©chec.
Ce devait ĂȘtre l’avenir de la mĂ©decine. La division mĂ©dicale de Watson, IA emblĂ©matique d’IBM, a finalement Ă©tĂ© revendue pour une fraction de son coĂ»t total en 2022. Dans cette interview Ă Slate, Casey Ross, journaliste pour Stat News, revient sur l’Ă©chec cuisant de Big Blue en oncologie. En cause, l’hĂ©tĂ©rogĂ©nĂ©itĂ© des donnĂ©es utilisĂ©es pour modeler les algorithmes…
Slate (accĂšs libre) (EN)
|
L’IA n’est pas un autre comme les autres.
C’est ce qu’arguait, en 2017 dĂ©jĂ , l’Ă©thicien Bertrand Kiefer dans la Revue mĂ©dicale suisse. A cet Ă©gard, l’IA est incapable de voir au-delĂ de la question posĂ©e comme le ferait le mĂ©decin, et ne saurait le remplacer pour l’interprĂ©tation mĂ©dicale. «Ce qui est important, dans le rĂŽle du soignant, câest dâabord quâil soit un autre, quelquâun qui se tient en face, Ă©coute avec bienveillance et dĂ©cale lâanalyse», Ă©crivait-il. Ce dont les algorithmes demeurent incapables.
Revue médicale suisse (accÚs libre) (FR)
|
|
|
Avenue du Bouchet 2
1209 GenĂšve
Suisse
|
|
|