Google a créé un code éthique de l’intelligence artificielle (IA) qui notamment interdit le développement d’armes autonomes. Mais les principes laissent suffisamment de marge de manœuvre à Google pour bénéficier d’accords lucratifs avec le ministère de la Défense.
Le PDG de Google, Sundar Pichai, a dévoilé ce code au travers de 7 principes :
- Etre bénéfique à la société
- Eviter les biais algorithmiques
- Respecter la vie privée
- En tester la sécurité
- Rendre des comptes au public
- Faire preuve de rigueur scientifique
- Etre mise à la disposition d’autres personnes
Mais Pichai a également pris la peine d’affirmer que Google ne permettrait pas que sa technologie d’IA soit utilisée pour développer quoi que ce soit qui pourrait causer des dommages, y compris » des armes ou d’autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes « . M. Pichai a déclaré que Google éviterait également de développer une technologie de surveillance qui violerait les normes internationales en matière de droits de l’homme, ou toute technologie qui contreviendrait à ces lois internationales.