Entre admirateurs et détracteurs, l’intelligence artificielle est aujourd’hui au centre de nos préoccupations de par les prouesses dont elle fait preuve. Ses passionnés diront qu’elle est capable de faciliter notre quotidien, d’optimiser notre temps de travail, et de prendre les meilleures décisions pour nous. Mais d’autres pourront dire qu’il est imprudent de confier nos décisions à un outil dont on ne comprend pas réellement les rouages et le fonctionnement. Après tout, l’IA n’est-elle pas une sorte de “Black Box” comme nous l'appelons si souvent ?
Dans cet article, nous explorons l'importance de l'explicabilité de l'IA, notamment dans le domaine de l'imagerie médicale, et discutons des efforts actuels pour rendre ces systèmes plus compréhensibles et dignes de confiance.
Mot-clés: Intelligence Artificielle, Machine Learning, Deep Learning, explicabilité, interprétabilité, Grad-CAM, imagerie médicale.
L’IA : a priori insaisissable
L'intelligence artificielle s'articule autour de deux sous-disciplines clés : l'apprentissage automatique ou Machine Learning, et l'apprentissage en profondeur ou Deep Learning. Malgré certaines similitudes, ils diffèrent à plusieurs égards. Le Machine Learning est une approche de l'intelligence artificielle qui permet aux machines d'apprendre à partir de données. Il utilise diverses techniques, telles que la régression et les arbres de décision, pour créer des modèles prédictifs. Le Deep Learning, quant à lui, est une sous-catégorie du Machine Learning. Il utilise des réseaux de neurones à plusieurs couches, appelés réseaux de neurones profonds, pour apprendre à partir de grandes quantités de données. Ce qui distingue vraiment le Deep Learning, c'est sa capacité à traiter et à apprendre de données non structurées et complexes, comme les images ou le langage naturel, ce qui serait plus difficile à faire avec des techniques de Machine Learning traditionnelles.
Bien que certains modèles de Machine Learning, comme les arbres de décision, soient assez aisément compréhensibles, les réseaux de neurones sont, quant à eux, souvent considérés comme des "boîtes noires". Cette dénomination provient de l'opacité de leurs processus décisionnels, qui s'avèrent particulièrement complexes à cause de leur architecture sophistiquée et de l'introduction de non-linéarité.
Dans les réseaux de neurones profonds, des millions de paramètres interagissent entre eux. Le processus par lequel ces paramètres sont ajustés au cours de la phase d'entraînement est assez complexe à déchiffrer. Afin de capter les relations complexes entre les entrées et les sorties de chaque couche, l'introduction de non-linéarité dans ces couches est nécessaire. Cette non-linéarité est générée par l'intermédiaire d'une fonction spécifique, appelée fonction d'activation. Cette dernière permet le transfert d'informations dès que le seuil de stimulation est franchi. Dans un modèle non linéaire, de légères variations en entrée peuvent engendrer des résultats en sortie significativement différents, ce qui peut rendre l'interprétation de certains résultats assez difficile.
Transparence et confiance
L'IA n'a plus besoin de faire ses preuves, notamment dans certaines applications médicales où elle s'avère plus efficace que les médecins. Le Pr Jin Mo Goo, du département de radiologie de l'hôpital universitaire national de Séoul en Corée, souligne au sujet d’une IA de détection des nodules pulmonaires, dont le taux de détection sans IA est à 0.25%, contre 0.59% avec l’aide de l’IA :
"Notre étude a fourni des preuves solides que l'IA pourrait vraiment aider à interpréter la radiographie thoracique. Cela contribuera à identifier plus efficacement les maladies pulmonaires, en particulier le cancer du poumon, à un stade plus précoce ".
Cependant, malgré les performances impressionnantes de l'IA, celle-ci ne peut pas être considérée comme suffisante. Le corps médical, qui porte une responsabilité légale, ne doit jamais valider un diagnostic automatisé sans l'avoir préalablement vérifié et compris.
C'est pourquoi l'IA ne devrait jamais remplacer le médecin, car elle ne peut pas se substituer à la confiance et à la présence indispensables du médecin pour prendre des décisions cruciales et fournir un soutien humain essentiel. Les décisions médicales basées sur l'IA peuvent avoir un impact significatif sur la vie des patients, il est donc essentiel que les utilisateurs comprennent comment et pourquoi ces décisions sont prises.
Lorsque les systèmes d'IA sont en mesure de fournir des explications claires et convaincantes, cela contribue à instaurer un niveau de confiance plus élevé et à favoriser une adoption plus large de ces technologies.
Des outils pour comprendre l’IA (explainable AI)
Il existe plusieurs solutions populaires utilisées pour expliquer l'IA.
En Machine Learning, deux bibliothèques couramment utilisées sont LIME et SHAP. Ces bibliothèques offrent la possibilité d'expliquer les prédictions des modèles en fournissant des explications globales et locales. Elles attribuent des valeurs d'importance aux différentes caractéristiques d'entrée, ce qui permet de mieux comprendre le fonctionnement des modèles.
En Deep Learning, la méthode célèbre utilisée pour expliquer les prédictions des modèles est la technique appelée Grad-CAM [1] (Gradient-weighted Class Activation Mapping). La Grad-CAM permet de générer une carte de chaleur qui met en évidence les zones de l'image examinées par le modèle lors de sa prédiction.
Cette méthode est appliquée à la dernière couche convolutive du modèle, car c'est à ce niveau que les prédictions finales sont générées à partir des gradients. Les gradients sont calculés lors de la rétro-propagation, en utilisant la sortie de la classe prédite par le modèle par rapport aux activations de la dernière couche convolutive. Ces gradients permettent de mesurer l'importance relative de chaque activation pour la classe prédite.
Le principe de la Grad-CAM repose sur la pondération des activations. Les gradients sont utilisés pour pondérer les activations, ce qui signifie que plus le gradient est élevé pour une activation donnée, plus cette activation est considérée comme importante pour la classe prédite. La carte de caractéristiques de la dernière couche convolutive est ensuite combinée avec la pondération des activations pour produire une carte thermique qui met en évidence les régions activées pour une certaine classe.
En superposant cette carte de chaleur à l'image d'origine, il est possible de visualiser les zones de l'image utilisées par le modèle pour effectuer ses prédictions. Cette visualisation permet ainsi de mieux comprendre les zones d'intérêt du modèle et les motifs sur lesquels il se base pour prendre ses décisions.
Figure 1. Grad-CAM pour la détection du COVID-19 à partir de radiographies thoraciques [2]. A gauche : une radiographie thoracique provenant du dataset COVID-19 [3]. A droite : la carte d'attention Grad-CAM calculée à partir de l'image originale de gauche, via la bibliothèque Pytorch M3d-CAM [4].
Références
[1] Selvaraju, R. R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., & Batra, D. (2017). Grad-cam: Visual explanations from deep networks via gradient-based localization. In Proceedings of the IEEE international conference on computer vision (pp. 618-626).
[2] Wang, L., Lin, Z. Q., & Wong, A. (2020). Covid-net: A tailored deep convolutional neural network design for detection of covid-19 cases from chest x-ray images. Scientific reports, 10(1), 19549.
[3] Cohen, J. P., Morrison, P., Dao, L., Roth, K., Duong, T. Q., & Ghassemi, M. (2020). Covid-19 image data collection: Prospective predictions are the future. arXiv preprint arXiv:2006.11988.
[4] Gotkowski, K., Gonzalez, C., Bucher, A., & Mukhopadhyay, A. (2020). M3d-CAM: A PyTorch library to generate 3D data attention maps for medical deep learning. arXiv preprint arXiv:2007.00453.
[5] Chattopadhay, A., Sarkar, A., Howlader, P., & Balasubramanian, V. N. (2018, March). Grad-cam++: Generalized gradient-based visual explanations for deep convolutional networks. In 2018 IEEE winter conference on applications of computer vision (WACV) (pp. 839-847). IEEE.
Comments