Les gens en Grande-Bretagne ont plus peur de l’intégration de l’intelligence artificielle (IA) dans les appareils ménagers et les voitures autonomes que dans les systèmes de police prédictive ou de diagnostic médical. Cette assertion est issue d’un sondage commandé par la Royal Society, et dont les résultats sont considérés comme étant le premier aperçu véritable de la perception par le public des risques et avantages associés à l’apprentissage machine, une technique clé dans les progrès de l’IA. Les participants à l’enquête étaient plus inquiets par le fait qu’un robot, sur la base des résultats obtenus via l’apprentissage machine, puissent leur causer des dommages physiques. En conséquence, les machines dont la proximité avec l’utilisateur est plus immédiate, comme celles dans la maison et les voitures autonomes, ont été considérées comme très risquées.
Comme l’a écrit l’experte en science de données Cathy O’Neil, les algorithmes sont dangereux s’ils sont scalables, si leur fonctionnement est gardé secret et peuvent avoir des effets destructeurs. La police prédictive en est un bon exemple. La santé constitue un autre domaine dans lequel les implications de l’apprentissage machine sont potentiellement importantes.
Cette inadéquation entre le risque perçu et le risque potentiel est courante avec les nouvelles technologies. La Royal Society recommande donc aux étudiants en apprentissage machine d’étudier l’éthique parallèlement à leurs études techniques.