Dans le cadre d’une série de trois articles consacrés à l’IA sous l’angle de l’éthique, de la médecine et du droit, le Prof. Paul Hoff, Dr méd. et Dr phil., a proposé un article intitulé « Médecine et intelligence artificielle : progrès et enjeux médico-éthiques » dans la première édition imprimée du nouveau Bulletin des médecins suisses. Dans le présent numéro, le Prof. Christian Lovis, directeur du service des sciences de l’information médicale de l’Université de Genève, présente les promesses et les risques liés à l’utilisation de l’intelligence artificielle en médecine. Enfin, le dernier article de la trilogie sera consacré au droit et aux questions de responsabilité civile et paraîtra dans l’édition du mois de novembre.
L’IA transforme la médecine, mais soulève aussi des questions éthiques, cliniques et réglementaires majeures.
L’intelligence artificielle (IA) bouleverse déjà le monde de la santé. De l’imagerie médicale à la génomique, en passant par la gestion hospitalière et la médecine personnalisée, ses applications se multiplient. Depuis les premiers systèmes experts dans les années 1970 jusqu’aux réseaux neuronaux profonds d’aujourd’hui, l’IA offre un potentiel inédit pour améliorer les diagnostics, accélérer la découverte de médicaments et soutenir les décisions cliniques.
Des outils puissants mais complexes
Les principaux leviers technologiques de l’IA en médecine incluent l’apprentissage automatique (machine learning), la vision par ordinateur, la robotique et le traitement du langage naturel (NLP). Ces outils permettent d’extraire des connaissances à partir de données massives, souvent non structurées, comme les notes cliniques ou les images radiologiques. Par exemple, les réseaux neuronaux convolutifs ont démontré une performance équivalente, voire supérieure, à celle d’experts humains pour détecter certains cancers ou complications ophtalmologiques.
Des cadres réglementaires en évolution
La réglementation doit s’adapter à cette évolution rapide. L’Union européenne a adopté l’« AI Act », un cadre réglementaire pionnier qui catégorise les systèmes d’IA selon leur niveau de risque. Les systèmes utilisés en médecine sont en général considérés comme « à haut risque » et doivent répondre à des exigences strictes en matière de sécurité, de transparence et d’explicabilité. En Suisse, l’approche est plus souple mais tout aussi attentive aux principes éthiques, notamment la protection des données et la confiance du public.
L’AI Act classe les technologies d’IA selon quatre niveaux de risque. Les applications médicales y figurent comme à haut risque. Elles sont soumises à des obligations de documentation, de surveillance humaine et d’évaluation rigoureuse, avec l’objectif d’équilibrer innovation et sécurité.
Des espoirs immenses…
Les bénéfices attendus sont nombreux : diagnostic plus précoce, thérapies mieux ciblées, prise en charge individualisée, optimisation des flux hospitaliers, soutien à la recherche clinique. Certains modèles ont déjà montré leur efficacité, comme dans le triage automatisé des images radiologiques ou l’ajustement de traitements en oncologie.
… mais des défis cruciaux
Malgré l’engouement, les défis sont considérables. L’accès aux données de qualité reste difficile, et les biais dans les jeux de données peuvent induire des résultats discriminants. Beaucoup d’algorithmes restent des « boîtes noires » difficilement interprétables par les soignantes et soignants. La validation clinique reste rare, et l’adaptation aux contextes locaux de soins encore insuffisante. De plus, l’impact réel sur les patientes et patients n’est pas toujours démontré. Certains modèles performants en laboratoire échouent en pratique clinique. Des études récentes ont mis en lumière des risques liés à l’opacité des systèmes, à la persistance de biais raciaux, ou encore à des recommandations erronées en situation réelle [1-3].
Conclusion : l’inconfort de l’inattendu
L’IA générative est une innovation technologique profondément perturbatrice. Comme toute rupture, elle suscite de grands espoirs, mais bien trop peu de prudence face aux conséquences inattendues. Ce qui la rend véritablement dérangeante, ce n’est pas tant le risque de préjudice que celui de l’imprévu. Prenons l’exemple des dettes cognitives : l’usage intensif de systèmes génératifs pourrait surcharger nos capacités d’attention et altérer notre autonomie intellectuelle [4]. Autre domaine sensible : la santé mentale. Des expérimentations ont déjà démontré des effets réels, et parfois néfastes, de l’IA dans des contextes thérapeutiques [5].
Enfin, dans une récente étude sur la synthèse automatique de textes médicaux, nous avons mis en évidence le manque criant de rigueur scientifique dans les approches actuelles [6]. Oui, nous devons utiliser l’IA. Oui, nous devons explorer et progresser. Mais cela doit se faire par la science : curieuse, rigoureuse, enthousiaste. Non par la croyance, l’euphorie ou le dogme.