Si le Pentagone veut que davantage de systèmes intègrent de l’intelligence artificielle, il doit d’abord s’assurer que ses employés en comprennent la mécanique. La DARPA recherche donc des chercheurs pour concevoir des prototypes de systèmes d’intelligence artificielle capable de présenter la logique et justifier chaque décision, ce que la DARPA appelle « Explanaible AI » ou « XAI ». L’agence veut aussi créer des équipes qui étudient la psychologique derrière ces explications – une machine devrait-elle plutôt décrire ses actions en utilisant des analogies ou des exemples ? – et d’évaluer si la confiance d’un utilisateur dans un système d’intelligence artificielle est plus importante si elle sait expliquer ses résultats. N’importe quel utilisateur devra pouvoir comprendre les réponses à des questions telles que « pourquoi tu as fait ça ? », « quand puis-je te faire confiance ? ».
DARPA : l’intelligence artificielle doit savoir justifier ses décisions
(Visited 162 times, 1 visits today)