D’après Issac Asimov, les trois lois de la robotique introduites dans la 56e édition du « Handbook of Robotics » (publié en 2 058), devraient être les suivantes :
- Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
- Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Pourtant, Gordon Briggs and Matthias Scheutz, duTufts University’s Human-Robot Interaction Lab, essaient de déjà développer des mécanismes qui permettraient aux robots de rejeter les ordres reçus de la part d’humains, à condition que les robots aient une raison suffisante pour cela. Dangereux non ?
(Visited 125 times, 1 visits today)
En fait, je ne vois pas en quoi ces exemples contredisent les lois d’Asimov ?
Le robot respecte la 3eme loi en refusant de tomber dans le vide ou buter dans un mur. Il exécute ensuite les ordres car le danger a été écarté par les informations apportées par l’homme.
Le vrai danger (pour reprendre votre question finale) consiste donc plutôt pour les robot à obéir aveuglément à l’homme …