Vers une voie plus équitable pour l’IA dans les soins de santé ?

Image parStefan Dr. Schulz de Pixabay

Lorsque des scientifiques de Chicago, en Illinois, ont entrepris de vérifier si un algorithme d’apprentissage automatique pouvait prédire combien de temps les gens resteraient à l’hôpital, ils ont pensé faire à tout le monde. Débutant leurs travaux fin 2017, les scientifiques ont entraîné leur algorithme à partir des données des patients du système hospitalier universitaire de l’Université de Chicago. Ils ont exploité les données des trois années précédentes pour identifier la combinaison de facteurs qui prédirait le mieux la durée du séjour. Au début, ils n’ont examiné que les données cliniques. Mais lorsqu’ils ont étendu leur analyse à d’autres renseignements sur les patients, ils ont découvert que l’un des meilleurs prédicteurs de la durée du séjour était le code postal de la personne. Qu’est-ce que la durée du séjour d’une personne à l’hôpital avait à voir avec l’endroit où elle vivait ?

Au fur et à mesure que les chercheurs creusaient davantage, ils étaient de plus en plus inquiets. Les codes postaux des personnes qui effectuaient des séjours plus longs à l’hôpital correspondaient à des quartiers pauvres et surtout afro-américains. Les habitants de ces quartiers sont restés plus longtemps à l’hôpital que ceux des quartiers plus riches, à prédominance blanche. La raison de cette disparité a échappé à l’équipe. Peut-être que les gens des endroits les plus pauvres ont été admis avec des affections plus sévères. Ou peut-être qu’ils étaient moins susceptibles de se faire prescrire les médicaments dont ils avaient besoin. Cette découverte a alors soulevé un dilemme éthique.

Cette histoire est une mise en garde opportune alors que les chercheurs en science médicale se tournent vers l’intelligence artificielle (IA) pour améliorer les soins de santé. Les outils d’IA pourraient apporter de grands avantages aux personnes qui ne sont actuellement pas bien servies par le système médical. Mais cette révolution repose sur les données qui sont disponibles pour entraîner ces systèmes, et ces données reflètent l’inégalité du système de santé actuel. Ces inégalités sont préservées dans les téraoctets de données sur la santé qui sont générées dans le monde entier.

L’accès limité aux soins pour certaines personnes n’est qu’un moyen parmi d’autres pour les outils d’IA de creuser l’écart en matière de santé à l’échelle mondiale. Comment s’assurer que les outils à IA s’appliquent également à différents groupes de personnes ? L’information provenant de certains groupes de population tend à manquer dans les données avec lesquelles ces outils apprennent, ce qui signifie que l’outil pourrait fonctionner moins bien pour les membres de ces communautés. Mais cela soulève des inquiétudes quant à la protection des données pour les populations vulnérables, selon M. Naidu.

Pour s’assurer que les outils d’IA n’aggravent pas les inégalités en matière de santé, il faudrait, dès lors, intégrer l’équité dans la conception des outils d’IA.

La suite ici (Linda Nordling)

(Visited 68 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :