Think&Do Tank virtuel pour que la 4ème révolution "industrielle" / singularité impulsée par les NBIC soit éthique & sociale

Comment rendre équitables les systèmes d’intelligence artificielle ?

3

Nombre d’experts estiment que les énormes bases de données utilisées pour entraîner les programmes de machine learning contiennent les préjugés humains. Une chercheuse de Microsoft, Kate Crawford, estime même que l’intelligence artificielle est aujourd’hui majoritairement semblable à un homme blanc. Récemment par exemple, une intelligence artificielle a jugé un concours de beauté international et n’a désigné comme vainqueurs quasiment que des blancs alors que toutes les origines étaient représentées. En fait nous avons déjà appris aux machines à être racistes. Et si le racisme et le sexisme que renferment ces bases de données de machine learning pouvait être “ré-équilibrés” grâce à un algorithme d’équité ? Et si un bout de code pouvait, de manière fiable, s’assurer que le résultat des requêtes soit fiable quand il s’agit par exemple de définir la prime d’assurance de quelqu’un. Une équipe de chercheurs de l’University of Utah, l’University of Arizona, et du Haverford College a commencé à transcrire l’équité en termes mathématiques afin que les informaticiens rendre leurs systèmes éthiques.

La suite ici

(Visited 104 times, 1 visits today)

Loïc Bardon
A propos Loïc Bardon

Co-fondateur de Paris Singularity, think&do tank virtuel d'empowerment citoyen Prospectiviste passionné par la 4e révolution "industrielle"/singularité impulsée par les technologies NBIC(Nano/Bio/Info/Cogno)

Contact: Twitter | Plus d'articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*