L’IA médicale de Google était super précise… en laboratoire

deep tech innovation réalité virtuelle Metaverse

La pandémie de covid-19 pousse les ressources hospitalières au point de rupture dans de nombreux pays du monde. Il n’est donc pas surprenant que beaucoup de gens espèrent que l’intelligence articielle (IA) puisse accélérer le dépistage des patients et soulager la pression sur le personnel clinique. Mais une étude de Google Health (la première à examiner l’impact d’un outil d’apprentissage en profondeur dans des environnements cliniques réels) révèle que même les IA les plus précises peuvent en fait aggraver les choses si elles ne sont pas adaptées aux environnements cliniques dans lesquels elles vont travailler.

La première occasion pour Google de tester l’outil dans un cadre réel est venue de Thaïlande. Le ministère de la santé du pays s’est fixé comme objectif annuel de dépister la rétinopathie diabétique chez 60 % des personnes diabétiques, qui peut entraîner la cécité si elle n’est pas détectée à temps. Mais avec environ 4,5 millions de patients pour seulement 200 spécialistes de la rétine – soit environ le double du ratio des cliniques américaines -, les cliniques ont du mal à atteindre cet objectif.

Dans le système utilisé par la Thaïlande, les infirmières prennent des photos des yeux des patients lors des examens et les envoient pour qu’ils soient examinés par un spécialiste ailleurs – un processus qui peut prendre jusqu’à 10 semaines. L’IA développée par Google Health permet d’identifier les signes de rétinopathie diabétique à partir d’un scanner oculaire avec une précision de plus de 90% – ce que l’équipe appelle le “niveau du spécialiste humain” – et, en principe, de donner un résultat en moins de 10 minutes. Le système analyse les images à la recherche d’indices révélateurs de l’affection, tels que des vaisseaux sanguins bloqués ou qui fuient.

Quand elle fonctionnait bien, l’IA accélérait les choses. Mais elle n’a parfois pas donné de résultat du tout. Comme la plupart des systèmes de reconnaissance d’images, le modèle d’apprentissage en profondeur avait été entraîné sur des scans de haute qualité ; pour garantir la précision, il était conçu pour rejeter les images qui tombaient en dessous d’un certain seuil de qualité. Comme les infirmières scannent des dizaines de patients par heure et prennent souvent les photos dans de mauvaises conditions d’éclairage, plus d’un cinquième des images sont rejetées.

Les patients dont les images ont été exclues du système se sont fait dire qu’ils devraient consulter un spécialiste dans une autre clinique un autre jour. S’il leur était difficile de s’absenter du travail ou s’ils n’avaient pas de voiture, cela était évidemment peu pratique. Les infirmières se sentaient frustrées, surtout lorsqu’elles pensaient que les scanners rejetés ne montraient aucun signe de maladie et que les rendez-vous de suivi étaient inutiles. Elles perdaient parfois du temps à essayer de reprendre ou de modifier une image que l’IA avait rejetée. Comme le système devait télécharger les images dans le nuage pour les traiter, les mauvaises connexions Internet dans plusieurs cliniques ont également causé des retards.

L’équipe de Google Health travaille actuellement avec le personnel médical local pour concevoir de nouveaux flux de travail. Par exemple, les infirmières pourraient être formées à utiliser leur propre jugement dans les cas limites. Le modèle lui-même pourrait également être modifié pour mieux gérer les images imparfaites.

La suite ici (Will Douglas Heaven)

(Visited 83 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :