TEST 15 JOURS

Explicabilité et interprétabilité, critères indispensables de l’IA de confiance

L’IA, lorsqu’elle peut être qualifiée de confiance, permet de répondre à certaines problématiques relatives à son utilisation en santé. mind Health a interrogé des acteurs du secteur, l’Institut Curie, la Chaire Good in Tech, la start-up Numalis, la Haute autorité de santé (HAS), et le cabinet de conseil Quinten Health pour décrypter les processus de construction et d’évaluation visant au développement d’applications concrètes encadrées de cette technologie évolutive.

Par Camille Boivigny. Publié le 04 mai 2021 à 16h35 - Mis à jour le 14 décembre 2021 à 15h19

Pour être appliquée en toute confiance, l’intelligence artificielle (IA) -du simple arbre décisionnel au réseau de neurones complexe- doit pouvoir rendre des comptes à celui qui l’utilise. Ses définition, périmètre, explicabilité et interprétabilité s’avèrent donc indispensables à son application en santé mais demeurent encore évolutives comme l’expliquait mind Health dans son précédent dossier. Plusieurs outils permettent toutefois d’encadrer l’élaboration d’algorithmes et la traçabilité d’un raisonnement lors d’aide à la décision par exemple.

La valeur ajoutée de l’IA de confiance

En pratique, l’exercice consiste à traduire la médecine en mathématique, et vice-versa. En passant du langage médical au langage informatique, on construit l’interprétabilité de l’IA, en rempart de la boîte noire, tout en traduisant en requête informatique une cible d’intérêt médical. D’après Alexandre Templier, président exécutif de Quinten, “Combiner les hypothèses générées par un algorithme avec l’expertise d’un médecin sur les patients à risque de développer une pathologie ou à forte probabilité de répondre à un traitement permet de générer de nouvelles connaissances.
La valeur ajoutée des algorithmes réside notamment dans leur capacité de tester massivement toutes les combinaisons d’hypothèses possibles et à sélectionner les meilleures”. Notamment en filtrant dans les résultats obtenus ce qui est de l’ordre de l’aléa ou du signal pour sélectionner celles qui ont le plus de chances d’être validées, de se reproduire sur d’autres jeux de données, explique-t-il. “Un signal est un résultat de test statistique concluant, ayant une très faible probabilité d’être observé par hasard”. Selon lui, les notions théoriques mathématiques complexes sur lesquelles repose l’algorithme ne sont pas immédiatement accessibles, d’où l’impression de “boîte noire”.

La valeur ajoutée des algorithmes réside notamment dans leur capacité de tester massivement toutes les combinaisons d’hypothèses possibles et à sélectionner les meilleures

Alexandre Templier, CEO de Quinten

“La médecine a recours aux statistiques depuis plus de 70 ans avec l’evidence-based medicine. En revanche, les résultats des prédictions générées par l’IA sont rarement explicites. La question des variables influençant ces prédictions, et leur validité, est tout à fait légitime”, poursuit Alexandre Templier.…

Cet article est reservé aux abonnés
Déja abonné ? Connectez-vous

Vous n’êtes pas encore inscrit ?

Créez un compte pour tester notre offre
gratuitement pendant 15 jours

  • Services en ligne : études, analyses, bases de données et bien plus encore
  • Briefings quotidiens : actualités synthétisées
  • Lettres hebdomadaires

Besoin d’informations complémentaires ?

Contactez

le service d’études à la demande de mind

À lire

Le concept d’IA de confiance en santé

La Mayo Clinic crée deux entreprises en vue de constituer une plateforme d'IA

Le Broad Institute accueille un centre de recherche en IA doté de 300 M$

L’intelligence artificielle fonctionnelle à 67 % dans le secteur de la santé

Entretien

Jessica Leygues (Medicen): "Nous créons un nouvel axe stratégique très fort dédié à la data et l'IA"