Technologie sans conscience n’est que ruine de l’Homme.
Pourquoi cet article est intéressant ? L. Bardon . – Si l’éthique est l’ensemble des comportements qui lient une société, alors nous redéfinissons régulièrement nos “systèmes” éthique. Par conséquent, la place des systèmes d’intelligence artificielle (IA) dans la société relève de la définition de normes éthiques plutôt que d’une description exhaustive et figée.
Les questions de l’éthique des robots ou de l’IA sont difficiles à résoudre non pas à cause de la nature de la technologie mais à cause de la nature de l’éthique. Comme pour toutes les considérations normatives, l’éthique de l’IA exige que nous décidions de ce qui est ” vraiment ” important ; nos priorités les plus fondamentales. Accordons-nous plus d’importance à la préservation de la culture ou à la génération de nouvelles idées ? Le cœur de toute éthique réside dans un équilibre négocié ou découvert qui crée et perpétue une société.
L’éthique a des composantes à la fois descriptives et normatives. L’éthique descriptive est fondée sur l’observation de ce que les gens semblent faire ; elle est liée à la science et ouverte à la mesure et fondée sur des faits. L’éthique normative consiste en des recommandations sur ce qui devrait être fait. Bien que ces recommandations puissent être étayées par des faits descriptifs, par exemple en ce qui concerne les conséquences probables, elles ne sont pas par nature elles-mêmes des faits. En effet, contrairement à la science qui dépend d’une seule réalité, l’éthique normative dépend moins d’une société actuelle que d’une société à laquelle on aspire. Ainsi, un compte rendu des recommandations normatives devrait inclure également un compte rendu des résultats sociétaux escomptés pour une mise en œuvre réussie.
Le présent est la bêta version du futur.
Synthèse
Les progrès dans le domaine de l’IA pourrait potentiellement déboucher sur des innovations qui amélioreraient tous les aspects de la société, des systèmes d’ingénierie existants aux soins de santé en passant par les processus créatifs dans les arts et le divertissement. Cependant, l’IA est aussi « intelligente » que les données sur lesquelles elle est formée, et ces données reflètent des biais réels.
À l’heure où les technologues cherchent à utiliser l’IA pour trouver des solutions centrées sur l’humain afin d’optimiser les pratiques industrielles et la vie quotidienne, être conscient de la façon dont nos préjugés innés peuvent avoir des conséquences inattendues est devenu essentiel. Les projets qui débutent avec de bonnes intentions peuvent tout de même se révéler biaisés si les systèmes sont formés avec des données biaisées ou si les chercheurs ne tiennent pas compte de la façon dont leurs propres points de vue affectent les lignes de code.
Dans le domaine de l’IA, les préjugés apparaissent sous la forme de préjugés algorithmiques. Il peut provenir de données insuffisantes, d’un biais dans le traitement ou de l’injection d’un faux signal par quelqu’un. Or, un parti pris donne lieu à des résultats injustes, privilégiant peut-être un groupe ou en excluant complètement un autre.
Une meilleure IA implique une autorégulation et des directives éthiques :
- Il incombe aux organisations qui développent l’IA d’être de bons gestionnaires de données, de protéger la vie privée des individus tout en s’efforçant de réduire les biais algorithmiques
- Les entreprises doivent régulièrement vérifier l’efficacité de leurs solutions d’IA
- Les experts en technologies ont atteint un nouveau niveau de maturité avec l’IA qui est passée du domaine de la recherche à des applications pratiques et à la création de valeur dans tous les secteurs
- Les organisations ont désormais la responsabilité éthique de fournir des solutions robustes, inclusives et accessibles
La suite ici (MIT Technology Review Insights)