De plus en plus de spécialistes des sciences sociales utilisent l’intelligence artificielle (IA) pour résoudre les maux de la société. Mais ces derniers n’ont pas de directives éthiques claires pour que ces systèmes ne nuisent pas accidentellement aux gens, affirme l’éthicien Jake Metcalf de Data & Society. À l’heure actuelle, si les scientifiques financés par le gouvernement décident d’étudier des humains, la loi exige qu’ils obtiennent d’abord l’approbation d’un comité d’éthique ou comité d’examen institutionnel, l’IRB. Le comité de révision de Stanford a par exemple approuvé l’étude de Kosinski et Wang. Mais ses recommandations se basent sur des règles élaborées il y a 40 ans pour protéger les personnes dans le cadre d’interactions réelles, comme un prélèvement sanguin ou la tenue d’entretiens. Par prolongement, si vous utilisez simplement une base de données sans interagir avec des humains réels dans le cadre d’une étude, il existe un flou sur l’obligation de consulter un comité de révision. Les comités d’examen ne sont pas autorisés à évaluer une étude en fonction de ses conséquences sociales potentielles. Les chercheurs doivent donc considérer et être responsable de l’éthique propre à leur recherche.
La recherche en IA se cherche désespérément 1 garde fou éthique
(Visited 107 times, 1 visits today)