Think&Do Tank virtuel pour que la 4ème révolution "industrielle" / singularité impulsée par les NBIC soit éthique & sociale

La recherche en IA se cherche désespérément 1 garde fou éthique

De plus en plus de spécialistes des sciences sociales utilisent l’intelligence artificielle (IA) pour résoudre les maux de la société. Mais ces derniers n’ont pas de directives éthiques claires pour que ces systèmes ne nuisent pas accidentellement aux gens, affirme l’éthicien Jake Metcalf de Data & Society. À l’heure actuelle, si les scientifiques financés par le gouvernement décident d’étudier des humains, la loi exige qu’ils obtiennent d’abord l’approbation d’un comité d’éthique ou comité d’examen institutionnel, l’IRB. Le comité de révision de Stanford a par exemple approuvé l’étude de Kosinski et Wang. Mais ses recommandations se basent sur des règles élaborées il y a 40 ans pour protéger les personnes dans le cadre d’interactions réelles, comme un prélèvement sanguin ou la tenue d’entretiens. Par prolongement, si vous utilisez simplement une base de données sans interagir avec des humains réels dans le cadre d’une étude, il existe un flou sur l’obligation de consulter un comité de révision. Les comités d’examen ne sont pas autorisés à évaluer une étude en fonction de ses conséquences sociales potentielles. Les chercheurs doivent donc considérer et être responsable de l’éthique propre à leur recherche.

La suite ici

(Visited 36 times, 1 visits today)

Partager cet article: Share on FacebookTweet about this on TwitterShare on LinkedInShare on Google+Pin on PinterestEmail this to someoneShare on RedditShare on Tumblr
Loïc Bardon
A propos Loïc Bardon

Co-fondateur de Paris Singularity, think&do tank virtuel d'empowerment citoyen Prospectiviste passionné par la 4e révolution "industrielle"/singularité impulsée par les technologies NBIC(Nano/Bio/Info/Cogno)

Contact: Twitter | Plus d'articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*