TEST 15 JOURS

Intelligence artificielle en santé : qui est responsable ?

En santé, les logiciels d’IA bénéficient d’un encadrement spécifique via des dispositions du code de la Santé publique sur leur conception et leur utilisation comme l’interdiction de l’établissement d’un diagnostic par un système d’intelligence artificielle sans intervention conjointe d’un médecin par exemple. Le Code de déontologie médicale prévoit par ailleurs que “le médecin ne peut aliéner son indépendance professionnelle sous quelque forme que ce soit”. Décryptage de la notion de responsabilité dans le domaine d’IA en santé.

Par Camille Boivigny. Publié le 29 juin 2021 à 15h46 - Mis à jour le 09 juillet 2021 à 13h53

David Gruson, fondateur du think tank ETHIK-IA, porte l’initiative citoyenne et académique française visant à “proposer une série d’outils et de notes de cadrage pour garantir un regard humain sur les algorithmes en santé. Celle-ci a notamment permis que le principe de garantie humaine soit introduit à l’article 14 du projet de règlement sur l’IA de la Commission européenne paru le 21 avril 2021. Ce concept permet de garantir une intervention humaine dans la prise de décision découlant de l’utilisation d’algorithmes d’IA, visant à ce que l’humain reste seul décideur (tel que consacré à l’article 11 du projet de loi de bioéthique pour 2019). Au niveau international, l’Organisation mondiale de la santé a publié le 28 juin 2021 le premier rapport mondial sur l’IA appliquée à la santé et six principes directeurs relatifs à sa conception et son utilisation.…

Cet article est reservé aux abonnés
Déja abonné ? Connectez-vous

Vous n’êtes pas encore inscrit ?

Créez un compte pour tester notre offre
gratuitement pendant 15 jours

  • Services en ligne : études, analyses, bases de données et bien plus encore
  • Briefings quotidiens : actualités synthétisées
  • Lettres hebdomadaires

Besoin d’informations complémentaires ?

Contactez

le service d’études à la demande de mind

À lire

Le concept d’IA de confiance en santé

Explicabilité et interprétabilité, critères indispensables de l’IA de confiance