Un exemple de mammographie a attribué un score de cas faussement positif de 96 chez une patiente noire de 59 ans présentant une densité mammaire fibroglandulaire dispersée. (A) Les vues craniocaudales gauches et (B) obliques médiolatérales démontrent des calcifications vasculaires dans le quadrant supérieur externe à profondeur moyenne (encadré) qui ont été singulièrement identifiées par l'algorithme d'intelligence artificielle comme une découverte suspecte et auxquelles un score de lésion individuel de 90 a été attribué. dans un score global de cas attribué à la mammographie de 96. Crédit : Radiological Society of North America (RSNA)
La recherche révèle que l'IA en mammographie peut produire des faux positifs influencés par l'âge et la race du patient, soulignant l'importance de diverses données d'entraînement.
Une étude récente, qui a analysé près de 5 000 mammographies de dépistage interprétées par un algorithme d’IA approuvé par la FDA, a révélé que les caractéristiques des patients telles que la race et l’âge avaient un impact sur le taux de faux positifs. Les résultats ont été publiés aujourd'hui (21 mai) dans Radiologieune revue de la Radiological Society of North America (RSNA).
« L’IA est devenue une ressource permettant aux radiologues d’améliorer leur efficacité et leur précision dans la lecture des mammographies de dépistage tout en atténuant l'épuisement professionnel des lecteurs », a déclaré Derek L. Nguyen, MD, professeur adjoint à l'Université Duke de Durham, en Caroline du Nord. « Cependant, l'impact des caractéristiques des patients sur les performances de l'IA n'a pas été bien étudié. »
Défis dans les applications de l'IA
Le Dr Nguyen a déclaré que même si les données préliminaires suggèrent que les algorithmes d'IA appliqués aux examens de mammographie de dépistage peuvent améliorer les performances diagnostiques des radiologues pour la détection du cancer du sein et réduire le temps d'interprétation, certains aspects de l'IA doivent être pris en compte.
« Il existe peu de bases de données démographiquement diversifiées pour la formation aux algorithmes d'IA, et la FDA n'exige pas des ensembles de données diversifiés pour la validation », a-t-il déclaré. « En raison des différences entre les populations de patients, il est important de vérifier si les logiciels d'IA peuvent s'adapter et fonctionner au même niveau pour différents âges, races et ethnies de patients. »

Un exemple de mammographie a attribué un score de risque de faux positif de 1,0 chez une patiente hispanique de 59 ans présentant des seins de densité hétérogène. Des vues craniocaudales bidimensionnelles reconstruites bilatérales (A, B) et obliques médiolatérales (C, D) sont présentées. L’algorithme a prédit le cancer dans l’année, mais cette personne n’a pas développé de cancer ni d’atypie dans les 2 ans suivant la mammographie. Crédit : Société radiologique d'Amérique du Nord (RSNA)
Conception de l’étude et données démographiques
Dans l'étude rétrospective, les chercheurs ont identifié des patientes présentant des examens de dépistage par tomosynthèse numérique du sein négatifs (aucun signe de cancer) effectués au Duke University Medical Center entre 2016 et 2019. Toutes les patientes ont été suivies pendant une période de deux ans après les mammographies de dépistage, et aucune patiente n'a été suivie. ont reçu un diagnostic de cancer du sein.
Les chercheurs ont sélectionné au hasard un sous-ensemble de ce groupe composé de 4 855 patients (âge médian de 54 ans) largement répartis dans quatre groupes ethniques/raciaux. Le sous-ensemble comprenait 1 316 (27 %) patients blancs, 1 261 (26 %) noirs, 1 351 (28 %) asiatiques et 927 (19 %) hispaniques.
Un algorithme d'IA disponible dans le commerce a interprété chaque examen du sous-ensemble de mammographies, générant à la fois un score de cas (ou une certitude de malignité) et un score de risque (ou un risque de malignité ultérieur un an).
Performances de l'IA selon les données démographiques
« Notre objectif était d'évaluer si les performances d'un algorithme d'IA étaient uniformes selon l'âge, les types de densité mammaire et les différentes races/ethnies des patientes », a déclaré le Dr Nguyen.
Étant donné que toutes les mammographies de l’étude étaient négatives pour la présence d’un cancer, tout ce qui était signalé comme suspect par l’algorithme était considéré comme un résultat faussement positif. Les scores de cas faussement positifs étaient significativement plus probables chez les patients noirs et plus âgés (71 à 80 ans) et moins probables chez les patients asiatiques et les patients plus jeunes (41 à 50 ans) par rapport aux patients blancs et aux femmes âgées de 51 à 60 ans.
« Cette étude est importante car elle met en évidence que tout logiciel d’IA acheté par un établissement de santé peut ne pas fonctionner de la même manière quel que soit l’âge, la race ou l’origine ethnique des patients et la densité mammaire », a déclaré le Dr Nguyen. « À l'avenir, je pense que les mises à niveau des logiciels d'IA devraient se concentrer sur la garantie de la diversité démographique. »
Considérations pour les prestataires de soins de santé
Le Dr Nguyen a déclaré que les établissements de santé devraient comprendre la population de patients qu’ils servent avant d’acheter un algorithme d’IA pour l’interprétation des mammographies de dépistage et interroger les fournisseurs sur leur formation en matière d’algorithme.
« Avoir une connaissance de base des données démographiques de votre établissement et interroger le fournisseur sur la diversité ethnique et d'âge de ses données de formation vous aidera à comprendre les limites auxquelles vous serez confronté dans la pratique clinique », a-t-il déclaré.