Bientôt un véhicule autonome pourrait se trouver dans une situation qui tourne mal ne lui laissant que deux options : soit effectuer une manœuvre pour garder ses passagers en toute sécurité en faisant porter le risque sur le piéton, soit sauver le piéton en mettant en danger ses passagers. La décision dépendra de la façon dont le véhicule autonome a été programmé ; en d’autres termes, quel choix éthique son logiciel lui dictera. S’il y avait des règles éthiques claires sur lesquelles la société pouvait se mettre d’accord concernant la façon dont les véhicules autonomes doivent se comporter lorsqu’ils sont confrontés à de telles décisions, alors nous pourrions simplement les programmer. Pour tenter d’identifier ces règles éthiques, des chercheurs ont conduit six enquêtes auprès de 2000 personnes :
- 76% des participants ont estimé qu’il serait plus moral pour les véhicules autonomes de sacrifier un passager plutôt que de tuer 10 piétons. Les personnes ont massivement exprimé leur préférence morale pour que le véhicule autonome soit programmé pour minimiser le nombre de victimes.
- Cette posture résistait même à l’hypothèse selon laquelle les personnes interrogées ou un membre de leur famille seraient un des passagers.
- Les répondants ont indiqué avoir beaucoup moins envie d’acheter une voiture autonome après avoir imaginé la situation dans laquelle ils ou les membres de leur famille seraient sacrifiés pour le bien commun.
- Les personnes interrogés étaient réticentes vis-à-vis d’une réglementation gouvernementale.