L. Bardon . – Le Wall Street Journal a récemment accusé Google de recueillir furtivement des données sensibles sur des millions d’Américains sans leur consentement. Le New York Times a rapidement publié son propre rapport, donnant plus de détails sur le “Projet Nightingale”. Forbes a ensuite publié sa propre histoire, suivie d’un autre article de Business Insider, chacun donnant plus de détails sur cette initiative. Le vrai problème ; c’est que les ambitions de Google en matière de soins de santé n’ont pas de limites claires, ce que le projet Nightingale illustre. Jusqu’à présent, Google a conçu des outils pour évaluer le risque de contracter une maladie cardiaque à partir de scanners oculaires, détecter le cancer du sein lors de biopsies et prédire le risque global de décès prématuré d’un patient. Il a construit des microscopes de “réalité augmentée”, des applications d’aide pour les infirmières et les médecins, et s’est associé à des douzaines de fournisseurs de soins de santé. Google a même investi dans la recherche contre le veillissement. Le marché des soins de santé est tout simplement trop importants pour que Google puisse les ignorer. Il est estimé actuellement à 3,5 billions de dollars rien qu’aux États-Unis.
L’apprentissage machine prend d’assaut le diagnostic médical. Qu’il s’agisse de maladies oculaires, de cancers du sein ou autres, ou de troubles neurologiques plus amorphes, l’IA égalise régulièrement les performances des médecins, voire les bat carrément. Mais dans quelle mesure pouvons-nous prendre ces résultats au pied de la lettre ? Lorsqu’il s’agit de décisions de vie ou de mort, quand pouvons-nous faire entièrement confiance à des algorithmes énigmatiques – des « boîtes noires » que même leurs créateurs ne peuvent expliquer ou comprendre entièrement ? Le problème devient plus complexe à mesure que l’IA médicale croise de multiples disciplines et développeurs, y compris des puissances académiques et industrielles comme Google, Amazon ou Apple, avec des incitations disparates.
Il y a quelques semaines deux camps se sont affrontés dans un duel acharné dans l’une des plus prestigieuses revues scientifiques : Nature. D’un côté, on trouve d’éminents chercheurs en IA au Princess Margaret Cancer Centre, à l’université de Toronto, à l’université de Stanford, à Johns Hopkins, à Harvard, au MIT, et d’autres encore. De l’autre côté, le titan Google Health.
Le déclencheur a été une étude explosive de Google Health pour le dépistage du cancer du sein, publiée en janvier de cette année. L’étude prétend avoir développé un système d’IA qui a largement surpassé les radiologues pour le diagnostic du cancer du sein, et peut être généralisé à des populations autres que celles utilisées pour la formation – une sorte de saint graal incroyablement difficile à atteindre en raison du manque de grands ensembles de données d’imagerie médicale. L’étude a fait des vagues dans le paysage médiatique, et a créé un buzz dans la sphère publique pour la « montée en puissance » de l’IA médicale. Le problème, selon les universitaires, est que l’étude ne contient pas suffisamment de descriptions du code et du modèle pour que d’autres puissent les reproduire. En d’autres termes, nous ne pouvons que nous fier à l’étude telle qu’elle est formulée, ce qui n’est pas le cas dans la recherche scientifique.
La science est souvent décrite comme une entreprise sacrée incarnant l’objectivité et la vérité. Mais comme toute discipline touchée par les gens, elle est sujette à des erreurs, à de mauvaises conceptions, à des biais involontaires ou – en très petit nombre – à des manipulations conscientes pour fausser les résultats. C’est pourquoi, lorsqu’ils publient des résultats, les scientifiques décrivent soigneusement leur méthodologie afin que d’autres puissent reproduire les résultats. Si une conclusion, par exemple un vaccin qui protège contre Covid-19, est obtenue dans presque tous les laboratoires, quels que soient le scientifique, le matériel ou les sujets, nous avons alors une preuve plus solide que le vaccin fonctionne réellement. Dans le cas contraire, cela signifie que l’étude initiale peut être erronée – et les scientifiques peuvent alors déterminer pourquoi et passer à autre chose. La réplication est essentielle à une évolution scientifique saine. Mais la recherche sur l’IA est en train de détruire ce dogme.