Un modèle d’IA développé par l’Institut Beckman permet des diagnostics médicaux précis avec des cartes visuelles explicatives, améliorant ainsi la communication médecin-patient et facilitant la détection précoce des maladies.
Expert en diagnostic médical, assistant médical et cartographe sont tous des titres justes pour un modèle d’intelligence artificielle développé par des chercheurs du Beckman Institute for Advanced Science and Technology.
Leur nouveau modèle identifie avec précision les tumeurs et les maladies dans les images médicales et est programmé pour expliquer chaque diagnostic avec une carte visuelle. La transparence unique de l’outil permet aux médecins de suivre facilement son raisonnement, de revérifier précisionet expliquer les résultats aux patients.
« L’idée est d’aider à détecter le cancer et la maladie dès leurs premiers stades – comme un X sur une carte – et à comprendre comment la décision a été prise. Notre modèle contribuera à rationaliser ce processus et à le rendre plus facile pour les médecins et les patients », a déclaré Sourya Sengupta, auteur principal de l’étude et assistant de recherche diplômé à l’Institut Beckman.
Cette recherche est parue dans Transactions IEEE sur l’imagerie médicale.
Chats et chiens et oignons et ogres
Conceptualisée pour la première fois dans les années 1950, l’intelligence artificielle – le concept selon lequel les ordinateurs peuvent apprendre à s’adapter, analyser et résoudre des problèmes comme le font les humains – est devenue largement reconnue, en partie grâce à ChatGPT et à sa famille élargie d’outils faciles à utiliser.
L’apprentissage automatique, ou ML, est l’une des nombreuses méthodes utilisées par les chercheurs pour créer des systèmes artificiellement intelligents. Le ML est à l’IA ce que l’éducation des conducteurs est à un jeune de 15 ans : un environnement contrôlé et supervisé pour s’entraîner à prendre des décisions, à s’adapter à de nouveaux environnements et à se réorienter après une erreur ou un mauvais virage.
L’apprentissage en profondeur – apprentissage automatiqueLe parent plus sage et plus mondain de – peut digérer de plus grandes quantités d’informations pour prendre des décisions plus nuancées. Les modèles d’apprentissage profond tirent leur pouvoir décisif des simulations informatiques les plus proches du cerveau humain : les réseaux neuronaux profonds.
Ces réseaux – tout comme les humains, les oignons et les ogres – comportent des couches, ce qui les rend difficiles à naviguer. Plus le réseau intellectuel d’un réseau est épais ou non linéaire, plus il exécute des tâches complexes et semblables à celles d’un humain.
Des chercheurs de l’Institut Beckman dirigés par Mark Anastasio (à droite) et Sourya Sengupta ont développé un modèle d’intelligence artificielle capable d’identifier avec précision les tumeurs et les maladies dans les images médicales. L’outil dessine une carte pour expliquer chaque diagnostic, aidant ainsi les médecins à suivre son raisonnement, à vérifier l’exactitude et à expliquer les résultats aux patients. Crédit : Jenna Kurtzweil, Bureau des communications du Beckman Institute
Considérons un réseau neuronal entraîné à différencier les images de chats et les images de chiens. Le modèle apprend en examinant les images de chaque catégorie et en classant leurs caractéristiques distinctives (telles que la taille, la couleur et l’anatomie) pour référence future. Finalement, le modèle apprend à faire attention aux moustaches et à pleurer Doberman au premier signe d’une langue souple.
Mais les réseaux neuronaux profonds ne sont pas infaillibles, tout comme les tout-petits trop zélés, a déclaré Sengupta, qui étudie l’imagerie biomédicale au département de génie électrique et informatique de l’Université de l’Illinois à Urbana-Champaign.
« Ils réussissent parfois, peut-être même la plupart du temps, mais ce n’est peut-être pas toujours pour les bonnes raisons », a-t-il déclaré. « Je suis sûr que tout le monde connaît un enfant qui a vu un jour un chien brun à quatre pattes et qui a ensuite pensé que tout animal brun à quatre pattes était un chien. »
Le reproche de Sengupta ? Si vous demandez à un tout-petit comment il a décidé, il vous le dira probablement.
« Mais vous ne pouvez pas demander à un réseau neuronal profond comment il est parvenu à une réponse », a-t-il déclaré.
Le problème de la boîte noire
Aussi élégants, compétents et rapides soient-ils, les réseaux de neurones profonds ont du mal à maîtriser la compétence fondamentale enseignée aux étudiants en calcul du secondaire : montrer leur travail. C’est ce qu’on appelle le problème de la boîte noire de l’intelligence artificielle, et cela déconcerte les scientifiques depuis des années.
À première vue, obtenir des aveux du réseau réticent qui a pris un Poméranien pour un chat ne semble pas incroyablement crucial. Mais la gravité de la boîte noire s’accentue à mesure que les images en question altèrent davantage la vie. Par exemple : des images radiographiques d’une mammographie pouvant indiquer des signes précoces d’un cancer du sein.
Le processus de décodage des images médicales est différent selon les régions du monde.
« Dans de nombreux pays en développement, il y a une pénurie de médecins et une longue file de patients. L’IA peut être utile dans ces scénarios », a déclaré Sengupta.
Lorsque le temps et les talents sont très demandés, le contrôle automatisé des images médicales peut être déployé comme un outil d’assistance – ne remplaçant en aucun cas les compétences et l’expertise des médecins, a déclaré Sengupta. Au lieu de cela, un modèle d’IA peut pré-analyser les images médicales et signaler celles contenant quelque chose d’inhabituel – comme une tumeur ou un signe précoce de maladie, appelé biomarqueur – pour examen par un médecin. Cette méthode permet de gagner du temps et peut même améliorer les performances de la personne chargée de lire le scan.
Ces modèles fonctionnent bien, mais leur utilisation au chevet du patient laisse beaucoup à désirer lorsque, par exemple, un patient demande pourquoi un système d’IA a signalé qu’une image contient (ou ne contient pas) une tumeur.
Historiquement, les chercheurs ont répondu à des questions comme celle-ci avec une multitude d’outils conçus pour déchiffrer la boîte noire de l’extérieur vers l’intérieur. Malheureusement, les chercheurs qui les utilisent sont souvent confrontés à un sort similaire à celui du malheureux espion, appuyé contre une porte verrouillée avec un vide. verre à leur oreille.
« Il serait tellement plus facile d’ouvrir simplement la porte, d’entrer dans la pièce et d’écouter la conversation », a déclaré Sengupta.
Pour compliquer encore davantage les choses, il existe de nombreuses variantes de ces outils d’interprétation. Cela signifie que toute boîte noire donnée peut être interprétée de manières « plausibles mais différentes », a déclaré Sengupta.
« Et maintenant la question est : à quelle interprétation croyez-vous ? il a dit. « Il est possible que votre choix soit influencé par vos préjugés subjectifs, et c’est là que réside le principal problème des méthodes traditionnelles. »
La solution de Sengupta ? Un tout nouveau type de modèle d’IA qui s’interprète à chaque fois – qui explique chaque décision au lieu de rapporter fadement le binaire « tumeur contre non-tumeur », a déclaré Sengupta.
En d’autres termes, aucun verre d’eau n’est nécessaire car la porte a disparu.
Cartographie du modèle
Un yogi qui apprend une nouvelle posture doit la pratiquer à plusieurs reprises. Un modèle d’IA formé pour distinguer les chats des chiens en étudiant d’innombrables images des deux quadrupèdes.
Un modèle d’IA fonctionnant comme un assistant médical est élevé grâce à un régime composé de milliers d’images médicales, certaines présentant des anomalies et d’autres sans. Lorsqu’il est confronté à quelque chose d’inédit, il effectue une analyse rapide et crache un nombre compris entre 0 et 1. Si le nombre est inférieur à 0,5, l’image n’est pas supposée contenir une tumeur ; un chiffre supérieur à 0,5 mérite un examen plus approfondi.
Le nouveau modèle d’IA de Sengupta imite cette configuration avec une touche particulière : le modèle produit une valeur ainsi qu’une carte visuelle expliquant sa décision.
La carte – appelée par les chercheurs carte d’équivalence, ou E-map en abrégé – est essentiellement une version transformée de la radiographie, de la mammographie ou de tout autre support d’image médicale original. Comme une toile de peinture par numéros, chaque région de la carte électronique se voit attribuer un numéro. Plus la valeur est élevée, plus la région est médicalement intéressante pour prédire la présence d’une anomalie. Le modèle résume les valeurs pour arriver à son chiffre final, qui éclaire ensuite le diagnostic.
« Par exemple, si la somme totale est de 1 et que trois valeurs sont représentées sur la carte – 0,5, 0,3 et 0,2 – un médecin peut voir exactement quelles zones sur la carte ont le plus contribué à cette conclusion et enquêter sur celles-ci. pleinement », a déclaré Sengupta.
De cette façon, les médecins peuvent vérifier à nouveau le fonctionnement du réseau neuronal profond – comme un enseignant vérifiant le travail sur le problème de mathématiques d’un élève – et répondre aux questions des patients sur le processus.
« Le résultat est un système plus transparent et plus fiable entre le médecin et le patient », a déclaré Sengupta.
X marque l’endroit
Les chercheurs ont formé leur modèle sur trois tâches différentes de diagnostic de maladies, comprenant plus de 20 000 images au total.
Tout d’abord, le modèle a examiné des mammographies simulées et a appris à détecter les premiers signes de tumeurs. Deuxièmement, ils ont analysé des images de tomographie par cohérence optique de la rétine, où ils se sont entraînés à identifier une accumulation appelée Drusen qui pourrait être un signe précoce de dégénérescence maculaire. Troisièmement, le modèle a étudié les radiographies pulmonaires et a appris à détecter la cardiomégalie, une hypertrophie cardiaque pouvant entraîner une maladie.
Une fois le modèle de cartographie formé, les chercheurs ont comparé ses performances à celles des systèmes d’IA à boîte noire existants, ceux sans paramètre d’auto-interprétation. Le nouveau modèle a fonctionné de manière comparable à ses homologues dans les trois catégories, avec des taux de précision de 77,8 % pour les mammographies, 99,1 % pour les images OCT rétiniennes et 83 % pour les radiographies pulmonaires, contre 77,8 %, 99,1 % et 83,33 existants. %
Ces taux de précision élevés sont le produit du réseau neuronal profond, dont les couches non linéaires imitent les nuances des neurones humains.
Pour créer un système aussi complexe, les chercheurs ont pelé l’oignon proverbial et se sont inspirés des réseaux de neurones linéaires, plus simples et plus faciles à interpréter.
« La question était : comment pouvons-nous exploiter les concepts derrière les modèles linéaires pour rendre les réseaux neuronaux profonds non linéaires également interprétables de cette manière ? a déclaré le chercheur principal Mark Anastasio, chercheur à l’Institut Beckman et professeur Donald Biggar Willet et chef du département de bio-ingénierie de l’Illinois. « Ce travail est un exemple classique de la manière dont des idées fondamentales peuvent conduire à de nouvelles solutions pour des modèles d’IA de pointe. »
Les chercheurs espèrent que les futurs modèles seront capables de détecter et de diagnostiquer des anomalies sur tout le corps, voire de les différencier.
« Je suis enthousiasmé par les avantages directs de notre outil pour la société, non seulement en termes d’amélioration des diagnostics de maladies, mais également en termes de confiance et de transparence entre les médecins et les patients », a déclaré Anastasio.


