Think&Do Tank virtuel pour que la 4ème révolution "industrielle" / singularité impulsée par les NBIC soit éthique & sociale

La recherche en IA se cherche désespérément 1 garde fou éthique

De plus en plus de spécialistes des sciences sociales utilisent l’intelligence artificielle (IA) pour résoudre les maux de la société. Mais ces derniers n’ont pas de directives éthiques claires pour que ces systèmes ne nuisent pas accidentellement aux gens, affirme l’éthicien Jake Metcalf de Data & Society. À l’heure actuelle, si les scientifiques financés par le gouvernement décident d’étudier des humains, la loi exige qu’ils obtiennent d’abord l’approbation d’un comité d’éthique ou comité d’examen institutionnel, l’IRB. Le comité de révision de Stanford a par exemple approuvé l’étude de Kosinski et Wang. Mais ses recommandations se basent sur des règles élaborées il y a 40 ans pour protéger les personnes dans le cadre d’interactions réelles, comme un prélèvement sanguin ou la tenue d’entretiens. Par prolongement, si vous utilisez simplement une base de données sans interagir avec des humains réels dans le cadre d’une étude, il existe un flou sur l’obligation de consulter un comité de révision. Les comités d’examen ne sont pas autorisés à évaluer une étude en fonction de ses conséquences sociales potentielles. Les chercheurs doivent donc considérer et être responsable de l’éthique propre à leur recherche.

La suite ici

Partager cet article: Share on FacebookTweet about this on TwitterShare on LinkedInShare on Google+Pin on PinterestEmail this to someoneShare on RedditShare on Tumblr
Loïc Bardon
A propos Loïc Bardon

Futurologue passionné par la 4e révolution "industrielle" impulsée par les NBIC, et par la singularité - Co-fondateur du think&do tank virtuel Paris Singularity - Membre actif de l'institut de recherche technologique virtuel envisioning.io

Contact: Twitter | Plus d'articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*