Think&Do Tank virtuel pour que la 4ème révolution "industrielle" / singularité impulsée par les NBIC soit éthique & sociale

6 dangers réels induits par l’IA à surveiller en 2019

Les dernières méthodes d’IA excellent dans les tâches telles que la classification des images et la transcription de la parole, mais le battage médiatique et l’enthousiasme suscité par ces compétences ont caché le chemin restant à parcourir pour construire des machines aussi intelligentes que nous le sommes. Six controverses advenues en 2018 constituent des avertissements. Même les algorithmes d’IA  peuvent “mal se comporter”, ou leur application peuvent avoir de graves conséquences.

1. Voitures autonomes qui se crashent

Après un accident mortel impliquant l’une des voitures autonomes d’Uber en mars, les enquêteurs ont découvert que la technologie de l’entreprise avait connu une défaillance catastrophique, qui aurait facilement pu être évitée.

2. Les robots de manipulation politique

En mars, on a appris que Cambridge Analytica, une société de conseil politique, avait exploité les pratiques de partage de données de Facebook pour influencer l’élection présidentielle américaine de 2016. Le tumulte qui en a résulté a montré comment les algorithmes qui décident des nouvelles et des informations à diffuser sur les médias sociaux peuvent être utilisés pour amplifier la désinformation, miner un débat sain et isoler des citoyens ayant des opinions différentes les uns des autres.

3. Algorithmes pour la paix

L’année dernière, un mouvement de “l’IA pour la paix” a pris forme lorsque des employés de Google ont appris que leur employeur fournissait de la technologie à l’US Air Force pour la classification de l’imagerie de drones. Les employés craignaient qu’il ne s’agisse d’une étape décisive vers la fourniture d’une technologie permettant d’automatiser les frappes mortelles de drones. En réponse, l’entreprise a abandonné le Project Maven, et a créé un code d’éthique en matière d’IA.

4. La surveillance

La capacité surhumaine de l’IA à identifier les visages a conduit les pays à déployer la technologie de surveillance à un rythme effréné. Les groupes de défense des libertés civiles mettent en garde contre un avenir dystopique. La technologie est un moyen formidable d’envahir la vie privée des gens, et les biais dans les données de formation sont susceptibles d’automatiser la discrimination.

5. Le fake

Une prolifération de vidéos “deepfake” l’année dernière a montré à quel point il était maintenant facile de faire de concevoir de faux clips en utilisant l’IA.

6. Discrimination algorithmique

Le biais a été découvert dans de nombreux outils commerciaux l’an dernier. Les algorithmes de vision entraînés à partir d’ensembles de données déséquilibrées ne reconnaissaient pas les femmes ou les personnes de couleur ; il a été prouvé que les programmes d’embauche fondés sur des données historiques perpétuaient la discrimination qui existe déjà.

La suite ici (Will Knight&Karen Hao)

(Visited 25 times, 1 visits today)

Loïc Bardon
A propos Loïc Bardon

Co-fondateur de Paris Singularity, think&do tank virtuel d'empowerment citoyen Prospectiviste passionné par la 4e révolution "industrielle"/singularité impulsée par les technologies NBIC(Nano/Bio/Info/Cogno)

Contact: Twitter | Plus d'articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*