
Un cadre inédit pour concilier innovation et valeurs du soin
Pour répondre à ces enjeux, la cellule éthique du numérique en santé, pilotée par la Délégation du numérique en santé (DNS), a publié à l’été 2025 un guide d’implémentation de l’éthique dans les systèmes d’IA en santé. Fruit de deux années de travaux menés par le groupe de travail GT3, ce document se distingue des chartes de principe souvent générales : il propose des outils pratiques et des critères opérationnels pour les développeurs, les établissements de santé et les industriels.
Le guide repose sur cinq principes fondamentaux – responsabilité, transparence, explicabilité, équité et proportionnalité – et décline 38 critères couvrant l’ensemble du cycle de vie d’un système d’IA : de la collecte des données à la formation des utilisateur.trice.s, en passant par la conception des algorithmes, le déploiement et le suivi.
Des repères concrets pour les acteurs de santé
Parmi les recommandations clés, figure la création d’un comité scientifique et éthique dès la phase de cadrage, garantissant une validation indépendante. La collecte de données doit rester strictement proportionnée, avec des garde-fous contre la réidentification, et intégrer des objectifs d’écoconception pour limiter l’empreinte environnementale.
Concernant les algorithmes, le guide insiste sur la réduction des biais, la traçabilité des usages et l’explicabilité des décisions, tout en prévoyant la possibilité de désactiver des modules d’IA. Une vigilance accrue est demandée sur l’IA générative, notamment face aux risques de plagiat, aux fuites de données ou aux « hallucinations » de certains modèles.
Au-delà des aspects techniques, l’accent est mis sur la formation des professionnel.le.s et le maintien de leur esprit critique. La supervision humaine est réaffirmée comme un pilier : l’IA doit soutenir, et non remplacer, la décision médicale.
Ce travail s’inscrit dans un contexte plus large, marqué par l’entrée en vigueur de l’AI Act européen en août 2024, ainsi que par les recommandations internationales de l’UNESCO et de l’OMS. La France entend ainsi conjuguer innovation et responsabilité, en inscrivant son action dans un cadre éthique partagé au niveau mondial.
Une ambition nationale et internationale
Le guide ambitionne de devenir un socle commun pour l’écosystème de la santé, inspirant des référentiels sectoriels à venir. Il illustre la volonté de la France de faire de l’éthique un levier de confiance pour les patient.e.s et les soignant.e.s. En mettant l’humain au cœur de la transformation numérique, il rappelle que la finalité première de l’innovation médicale reste la qualité du soin et l’attention portée à la personne.
Quelles priorités devraient guider le développement futur de l’IA dans le secteur médical selon vous ? N’hésitez pas à réagir dans les commentaires.
Sources : Buzz Esanté, esanté.gouv, santé mentale.fr
Julia Rodriguez
L’essor de l’intelligence artificielle (IA) dans le domaine de la santé ouvre des perspectives considérables en matière de diagnostic et de personnalisation des traitements. Mais cette montée en puissance ne va pas sans poser des dilemmes éthiques : biais algorithmiques, dilution des responsabilités, perte de la dimension humaine du soin ou encore risques liés aux données sensibles. Comment concilier innovation, IA et éthique ? On creuse la question dans notre nouvelle revue de presse.