Des réseaux de neurones profonds identifient les tumeurs

An Tang et Samuel Kadoury
Une équipe de chercheurs en intelligence artificielle développe une nouvelle méthode d'apprentissage profond pour identifier et délimiter des tumeurs dans des images médicales.

Le logiciel permet d'analyser automatiquement plusieurs modalités d'images médicales. Par un processus d'auto-apprentissage qui s'inspire du fonctionnement des neurones du cerveau, il identifie automatiquement les tumeurs au foie, délimite les contours de la prostate pour la radiothérapie ou permet de compter le nombre de cellules à l'échelle microscopique avec une performance similaire à l'œil d'un expert humain.

Cet algorithme présenté dans l'édition de février de la revue Medical Image Analysis par des chercheurs du Centre de recherche du Centre hospitalier de l'Université de Montréal (CRCHUM) et de Polytechnique Montréal ‒ en collaboration avec l'Institut des algorithmes d'apprentissage de Montréal (MILA) et Imagia ‒ fait la démonstration de la puissance de l'apprentissage profond (deep learning) en imagerie biomédicale. Ce projet intitulé Liver Cancer Detection using recent advances in deep learning a débuté en 2015 grâce à une subvention MEDTEQ.

« Nous avons développé un logiciel qui pourrait être intégré aux outils de visualisation pour aider les médecins dans l'analyse avancée de différentes modalités d'imagerie médicale. L'algorithme permet d'automatiser des tâches de prétraitement, de détection et segmentation ‒ c'est-à-dire la délimitation ‒ d'images qui ne sont pas réalisées actuellement parce que cela prend trop de temps pour un humain. Notre modèle est très versatile, il fonctionne pour des images de tomodensitométrie (CT-scan) du foie, des images par résonance magnétique (IRM) de la prostate et des images de cellules en microscopie électronique », explique Samuel Kadoury, chercheur au CRCHUM, professeur à Polytechnique Montréal et auteur senior de l'étude.

Prenons l'exemple d'un patient avec un cancer du foie. Actuellement, lorsqu'il passe un examen de tomodensitométrie, l'image doit être standardisée et normalisée avant d'être lue par le radiologiste. Cette étape de prétraitement relève un peu de la magie. « Il faut ajuster les nuances de gris, parce que souvent l'image est trop foncée ou trop pâle pour discerner les tumeurs. Cet ajustement avec les techniques d'aide au diagnostic assisté par ordinateur de type CAD est imparfait et parfois on rate ou on détecte à tort des lésions. D'où l'idée d'améliorer la vision par ordinateur. La nouvelle technique par apprentissage profond élimine cette étape de prétraitement », explique le Dr An Tang, radiologiste au Centre hospitalier de l'Université de Montréal, professeur à l'Université de Montréal et co-auteur de l'étude.

Comment les ingénieurs en intelligence artificielle ont-ils conçu ce logiciel intelligent d'imagerie pour visualiser les anomalies du corps humain? 

« Proposer des architectures d'apprentissage automatique spécialement adaptées aux contextes cliniques représente un réel défi. Imagia a donc pris l'initiative de créer une synergie entre le monde médical et le monde de la recherche en intelligence artificielle grâce à des équipes à forte expertise dans les deux domaines », explique Lisa Di Jorio, responsable des collaborations académiques chez Imagia et co-auteure de l'étude.

« Nous avons eu l'idée de combiner deux types de réseaux de neurones convolutionnels qui se complémentaient très bien pour obtenir une méthode optimisée de segmentation d'images. Le premier réseau utilise une donnée biomédicale brute et apprend la normalisation optimale des données. Le second réseau utilise la sortie du premier réseau pour modéliser des cartes de segmentation », résume Michal Drozdzal, premier auteur de l'étude, auparavant postdoctorant à Polytechnique et co-supervisé par Imagia, et maintenant chercheur chez Facebook AI Research à Montréal.

Un réseau de neurones est en quelque sorte une série complexe d'opérations informatiques qui permet à l'ordinateur d'apprendre par lui-même en lui présentant des quantités importantes d'exemples. Les réseaux de neurones convolutionnels (CNN) fonctionnent un peu comme notre cortex visuel, en empilant plusieurs couches de traitement pour produire un résultat ‒ une image ‒ de sortie. On peut les représenter comme un empilement de blocs de construction. Il existe plusieurs types de réseaux de neurones, chacun présentant une architecture distincte.

Les chercheurs ont donc combiné deux réseaux de neurones : le réseau entièrement connecté (FC) ou Fully Convolutional Network (FCNs) avec un réseau résiduel entièrement convolutionnel ou Fully Convolutional Residual Networks (FC-ResNets). 

« Il a fallu entraîner le nouvel algorithme pour qu'il découvre les lésions par lui-même », explique Samuel Kadoury, également titulaire de la Chaire de recherche du Canada en intervention assistée et imagerie médicale : « On présente à l'ordinateur des milliers d'exemples de lésions identifiées manuellement par des humains. C'est ce qu'on dénomme l'étalon de référence, ou gold standard. Ensuite, les réseaux de neurones corrigent les informations par un processus répétitif et l'algorithme finit par apprendre sans supervision comment reconnaître l'image ».

Les chercheurs ont comparé les résultats obtenus par leur algorithme à d'autres algorithmes. « À l'œil, on voit que notre algorithme performe aussi bien voire mieux que d'autres algorithmes et se rapproche beaucoup de ce qu'un humain ferait s'il avait des heures pour segmenter de nombreuses images. Éventuellement, notre algorithme pourrait être utilisé pour standardiser les images qui proviennent de différents centres hospitaliers », fait valoir Samuel Kadoury.

scan
Segmentation de lésions dans un organe à l'aide de techniques d'apprentissage automatique, à partir d'une image source de tomodensitométrie (CT-scan) (à gauche), réalisée par une architecture de réseaux de neurones convolutionnels (au centre) et manuellement (à droite).
Crédit : Eugene Vorontsov


En imagerie du cancer, les médecins aimeraient mesurer la charge tumorale, c'est-à-dire le volume de toutes les tumeurs dans le corps d'un patient.

« Le nouvel algorithme pourrait être employé comme outil de détection et de suivi de la charge tumorale, pour obtenir un portrait beaucoup plus complet de l'étendue de la maladie », fait valoir le Dr Tang.

Comme ce nouvel algorithme est très polyvalent, il serait possible de l'entraîner pour différentes pathologies comme le cancer du poumon ou du cerveau. Entraîner un algorithme, c'est très long (des heures, voire des jours), mais une fois entraîné, ce logiciel intelligent pourrait analyser les images en fractions de secondes et atteindre un niveau de performance en détection et classification comparable à celle de l'humain.

Il faudra cependant attendre encore plusieurs années avant que les avancées en intelligence artificielle ne soient transférées à la pratique dans nos hôpitaux, estime le Dr Tang : « Nous en sommes à la preuve de concept. Ça fonctionne sur un jeu de données. Si on prend les images de scans réalisées avec différentes techniques, doses de colorant, provenant de manufacturiers ou d'hôpitaux différents, est-ce que l'algorithme va fonctionner aussi bien? Il y a encore plusieurs défis à relever pour appliquer ces algorithmes à large échelle. On est encore dans le registre de la recherche et du développement. Nous devrons valider auprès d'une large population, dans différents scénarios d'acquisitions d'images pour confirmer la robustesse de cet algorithme ».

Et cette grande question qui soulève des débats : est-ce que ces nouvelles avancées en intelligence artificielle vont remplacer l'humain en médecine? « Non, au contraire. L'intelligence artificielle va nous permettre de réaliser des tâches qu'on ne peut pas faire actuellement parce que ça prend trop de temps. Ça nous donne des outils additionnels. On n'élimine pas d'emplois, on vient ajouter de nouvelles capacités pour analyser un grand nombre d'images », conclut le Dr An Tang.

À propos de cette étude

L'article « Learning normalized inputs for iterative estimation in medical image segmentation » a été publié dans l'édition de février de la revue Medical Image Analysis, et précédemment en ligne le 14 novembre 2017. Cette recherche a été financée par Imagia Inc., MITACS (subvention IT05356), MEDTEQ, les Fonds de recherche du Québec - santé (FRQS) et la Fondation de l'Association des radiologistes du Québec. L'étude a été menée par Samuel Kadoury (CRCHUM et Polytechnique Montréal), Michal Drozdzal et plusieurs co-auteurs : Gabriel Chartrand, Eugene Vorontsov, Mahsa Shakeri, Lisa Di Jorio, An Tang, Adriana Romero, Yoshua Bengio et Chris Pal. Pour en savoir plus, consultez l'étude : 
DOI : 10.1016/j.media.2017.11.005
 


Définitions

Intelligence artificielle : ensemble de logiciels capables de reproduire les capacités caractéristiques des humains.

Apprentissage profond (deep learning) : technique de l'intelligence artificielle qui permet à l'ordinateur de découvrir par lui-même la stratégie optimale pour résoudre un problème à partir d'un nombre important de données.

Neurone artificiel : fonction mathématique pouvant traiter une donnée.

Réseau de neurones convolutifs (en anglais CNN ou ConvNet) : type de réseau de neurones artificiels qui fonctionne par chevauchement de couches, comme dans le cortex visuel des humains. Les couches de neurones se superposent pour prétraiter de petites quantités d'informations comme les images.