L‘IA à l’hôpital : la nouvelle réglementation européenne impose des obligations aux exploitants

Le règlement européen 2024/1689 sur l’IA impose pour la première fois des obligations contraignantes aux hôpitaux et autres établissements de santé lors de l’utilisation de systèmes d’IA à haut risque dans le domaine médical. Ce qui relevait jusqu’à présent plutôt d’exigences techniques s’étend désormais à un catalogue complet d’obligations incluant des dimensions éthiques, cliniques et juridiques en matière de responsabilité. Cela nécessite une nouvelle culture du risque dans le quotidien clinique.

Aperçu des principales obligations

  • Désignation d’un responsable : chaque établissement doit désigner une personne responsable disposant des compétences techniques, cliniques et éthiques requises. Cette personne a le droit et le devoir d’arrêter les systèmes en cas de doute (« arrêt d’urgence »).
  • Mesures techniques et organisationnelles : un système de gestion des risques est obligatoire : les risques doivent être surveillés, documentés, minimisés et, si nécessaire, traités immédiatement.
  • Transparence et traçabilité : les décisions prises par l’IA doivent être compréhensibles pour le personnel spécialisé, même dans le cas de modèles de type « boîte noire ». Les collaborateurs doivent être formés et impliqués dans une réflexion critique.
  • Obligations de documentation : les erreurs, interventions ou écarts doivent être consignés de manière exhaustive et, le cas échéant, signalés.
  • Qualification et formation : les employés doivent prouver leurs « compétences en matière d’IA ». Des formations initiales et continues régulières deviennent obligatoires.
  • Information des patients : les patients ont le droit de savoir si l’IA joue un rôle dans le processus de traitement. Ils peuvent contester les décisions et exiger un contrôle humain.

Focus sur les boîtes noires et les systèmes adaptatifs

Le règlement considère comme particulièrement critiques les systèmes dont le fonctionnement n’est pas facilement compréhensible. Même si une IA fonctionne comme une boîte noire, les hôpitaux doivent garantir la traçabilité et le contrôle. Les systèmes adaptatifs qui évoluent de manière autonome requièrent encore plus d’attention. Ils nécessitent non seulement des contrôles techniques continus, mais aussi des formations régulières du personnel afin que les décisions cliniques continuent d’être prises de manière sûre et responsable.

Impact sur les hôpitaux

Pour les établissements de santé, cela implique des adaptations importantes. Le système de gestion de la qualité doit être élargi afin d’intégrer de nouveaux processus de surveillance et d’analyse des risques. Parallèlement, la collaboration avec les instances chargées de la protection des données, de la sécurité informatique et de l’éthique devient encore plus étroite. Il n’est plus envisageable que certains services agissent de leur propre chef.

Le risque de responsabilité est également particulièrement important : à l’avenir, les manquements en matière de surveillance ou de documentation pourront être considérés comme des erreurs de traitement. Pour le quotidien des cliniques, cela signifie également qu’il faut instaurer une nouvelle culture du débat. L’IA ne doit jamais « décider » sans surveillance, mais reste toujours un outil placé sous la responsabilité humaine.

KI im Krankenhaus

Marges de manœuvre pour la pratique

Pour les hôpitaux, cela signifie qu’ils doivent d’abord examiner tous les systèmes d’IA utilisés et les classer par catégories de risque. Sur cette base, il est recommandé de mettre en place un comité interdisciplinaire qui combine la surveillance, l’éthique et la sécurité informatique. C’est la seule façon d’apporter des réponses cohérentes aux questions techniques, juridiques et cliniques.

Il est tout aussi important d’impliquer les employés : les formations et les formations continues doivent devenir une partie intégrante du quotidien de la clinique. Parallèlement, il faut créer une culture dans laquelle les erreurs sont documentées et analysées ouvertement, au lieu d’être passées sous silence. Enfin, la communication avec les patients ne doit pas être négligée. Ceux-ci ont le droit de savoir quand l’IA est impliquée dans leur traitement et, s’ils le souhaitent, d’exiger une vérification humaine.

Conclusion : redécouvrir la responsabilité

Le règlement européen 2024/1689 sur l’IA marque un tournant. Il déplace l’accent mis sur l’innovation technique vers une utilisation responsable et centrée sur l’humain. Pour les hôpitaux, cela représente à la fois une opportunité et une obligation : ils doivent adapter leurs structures et leurs processus afin de respecter à la fois la responsabilité, la transparence et l’éthique. Le chemin pour y parvenir est difficile, mais il renforce à long terme la confiance des patients et du personnel médical.