L’éthique des machines : le dilemme du robot

Robot1

Enumérées pour la première fois dans sa nouvelle Cercle vicieux (Runaround, 1942), l’auteur de science fiction Isaac Asimov a proposé 3 lois de la robotique ; c’est-à-dire des gardes fous techniques et des principes éthiques intégrés dès la conception d’un robot qu’il continua à utiliser dans des dizaines de nouvelles et de romans. Petit clin d’oeil, Cercle vicieux se déroule en 2015.

Les 3 lois sont les suivantes :

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Les roboticiens citent actuellement beaucoup les lois d’Asimov ces temps-ci car leurs robots deviennent suffisamment autonomes pour avoir besoin de ce genre de lois. En mai, une conférence-débat sur les voitures autonome à la Brookings Institution, un think tank à Washington DC, s’est transformé en une discussion sur la façon dont les véhicules autonomes se comporteraient en cas d’incident. Que faire si les efforts d’un véhicule pour sauver ses propres passagers entraine un carambolage avec les véhicules derrière elle ? Ou si une voiture autonome fait une embardée pour éviter un enfant, mais risque de renverser quelqu’un d’autre à proximité ?

La suite ici

(Visited 550 times, 1 visits today)
Avatar photo

Ingénieur en technologie de l'information, passionné par l'innovation et la singularité. Co-fondateur du think tank virtuel Paris Singularity.

1 commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *