FMH, organisation professionnelle
 

Trilogie sur l'IA - Éthique, médecine et droit

Le recours à l’intelligence artificielle en médecine soulève des questions éthiques et juridiques qui ne peuvent pas toujours être délimitées à un seul domaine.

Iris Herzog-Zwitter
Dre en droit, Service juridique de la FMH

Dans le cadre d’une série de trois articles consacrés à l’IA sous l’angle de l’éthique, de la médecine et du droit, le Prof. Paul Hoff, Dr méd. et Dr phil., a proposé un article intitulé « Médecine et intelligence artificielle : progrès et enjeux médico-éthiques » dans la première édition imprimée du nouveau Bulletin des médecins suisses. Dans le présent numéro, le Prof. Christian Lovis, directeur du service des sciences de l’information médicale de l’Université de Genève, présente les promesses et les risques liés à l’utilisation de l’intelligence artificielle en médecine. Enfin, le dernier article de la trilogie sera consacré au droit et aux questions de responsabilité civile et paraîtra dans l’édition du mois de novembre.

Correspondance

iris.herzog@fmh.ch

L’intelligence artificielle en médecine

L’IA transforme la médecine, mais soulève aussi des questions éthiques, cliniques et réglementaires majeures.

Christian Lovis

Christian Lovis​​​​​​​
Prof. méd., Hôpitaux universitaires de Genève (HUG), Université de Genève

L’intelligence artificielle (IA) bouleverse déjà le monde de la santé. De l’imagerie médicale à la génomique, en passant par la gestion hospitalière et la médecine personnalisée, ses applications se multiplient. Depuis les premiers systèmes experts dans les années 1970 jusqu’aux réseaux neuronaux profonds d’aujourd’hui, l’IA offre un potentiel inédit pour améliorer les diagnostics, accélérer la découverte de médicaments et soutenir les décisions cliniques.

Des outils puissants mais complexes
Les principaux leviers technologiques de l’IA en médecine incluent l’apprentissage automatique (machine learning), la vision par ordinateur, la robotique et le traitement du langage naturel (NLP). Ces outils permettent d’extraire des connaissances à partir de données massives, souvent non structurées, comme les notes cliniques ou les images radiologiques. Par exemple, les réseaux neuronaux convolutifs ont démontré une performance équivalente, voire supérieure, à celle d’experts humains pour détecter certains cancers ou complications ophtalmologiques.

Les modèles sont prometteurs en laboratoire, mais incertains en clinique.

Des cadres réglementaires en évolution
La réglementation doit s’adapter à cette évolution rapide. L’Union européenne a adopté l’« AI Act », un cadre réglementaire pionnier qui catégorise les systèmes d’IA selon leur niveau de risque. Les systèmes utilisés en médecine sont en général considérés comme « à haut risque » et doivent répondre à des exigences strictes en matière de sécurité, de transparence et d’explicabilité. En Suisse, l’approche est plus souple mais tout aussi attentive aux principes éthiques, notamment la protection des données et la confiance du public.

L’AI Act européen

L’AI Act classe les technologies d’IA selon quatre niveaux de risque. Les applications médicales y figurent comme à haut risque. Elles sont soumises à des obligations de documentation, de surveillance humaine et d’évaluation rigoureuse, avec l’objectif d’équilibrer innovation et sécurité.

Des espoirs immenses…
Les bénéfices attendus sont nombreux : diagnostic plus précoce, thérapies mieux ciblées, prise en charge individualisée, optimisation des flux hospitaliers, soutien à la recherche clinique. Certains modèles ont déjà montré leur efficacité, comme dans le triage automatisé des images radiologiques ou l’ajustement de traitements en oncologie.

… mais des défis cruciaux
Malgré l’engouement, les défis sont considérables. L’accès aux données de qualité reste difficile, et les biais dans les jeux de données peuvent induire des résultats discriminants. Beaucoup d’algorithmes restent des « boîtes noires » difficilement interprétables par les soignantes et soignants. La validation clinique reste rare, et l’adaptation aux contextes locaux de soins encore insuffisante. De plus, l’impact réel sur les patientes et patients n’est pas toujours démontré. Certains modèles performants en laboratoire échouent en pratique clinique. Des études récentes ont mis en lumière des risques liés à l’opacité des systèmes, à la persistance de biais raciaux, ou encore à des recommandations erronées en situation réelle [1-3].

Conclusion : l’inconfort de l’inattendu
L’IA générative est une innovation technologique profondément perturbatrice. Comme toute rupture, elle suscite de grands espoirs, mais bien trop peu de prudence face aux conséquences inattendues. Ce qui la rend véritablement dérangeante, ce n’est pas tant le risque de préjudice que celui de l’imprévu. Prenons l’exemple des dettes cognitives : l’usage intensif de systèmes génératifs pourrait surcharger nos capacités d’attention et altérer notre autonomie intellectuelle [4]. Autre domaine sensible : la santé mentale. Des expérimentations ont déjà démontré des effets réels, et parfois néfastes, de l’IA dans des contextes thérapeutiques [5].

Enfin, dans une récente étude sur la synthèse automatique de textes médicaux, nous avons mis en évidence le manque criant de rigueur scientifique dans les approches actuelles [6]. Oui, nous devons utiliser l’IA. Oui, nous devons explorer et progresser. Mais cela doit se faire par la science : curieuse, rigoureuse, enthousiaste. Non par la croyance, l’euphorie ou le dogme.

Littérature

  1. Gulshan V, et al. Development and Validation of a Deep Learning Algorithm for Detection of Diabetic Retinopathy. JAMA. 2016 ;316(22) :2402-2410
  2. Obermeyer Z, et al. Dissecting racial bias in an algorithm used to manage population health. Science. 2019 ;366(6464) :447-453
  3. Kelly CJ, et al. Key challenges for delivering clinical impact with AI. BMC Med. 2019 ;17(1):195
  4. Wang Y, et al. Cognitive Debt : The hidden burden of AI assistance. arXiv. 2025 ; https ://arxiv.org/abs/2506.08872
  5. Stanford HAI. Exploring the dangers of AI in mental health care. 2024 ; https ://hai.stanford.edu/news/exploring-the-dangersof-ai-in-mental-health-care
  6. Lovis C, et al. Lack of scientific grounding in AI summarization. JMIR. 2025 ;27(1) :e68998

Correspondance

christian.lovis@unige.ch

A propos

Professeur d’informatique clinique à l’Université de Genève et président de la division des sciences de l’information médicale (SIMED) des Hôpitaux universitaires de Genève.