DARPA : l’intelligence artificielle doit savoir justifier ses décisions

2

Si le Pentagone veut que davantage de systèmes intègrent de l’intelligence artificielle, il doit d’abord s’assurer que ses employés en comprennent la mécanique. La DARPA recherche donc des chercheurs pour concevoir des prototypes de systèmes d’intelligence artificielle capable de présenter la logique et justifier chaque décision, ce que la DARPA appelle « Explanaible AI » ou « XAI ». L’agence veut aussi créer des équipes qui étudient la psychologique derrière ces explications – une machine devrait-elle plutôt décrire ses actions en utilisant des analogies ou des exemples ? – et d’évaluer si la confiance d’un utilisateur dans un système d’intelligence artificielle est plus importante si elle sait expliquer ses résultats. N’importe quel utilisateur devra pouvoir comprendre les réponses à des questions telles que « pourquoi tu as fait ça ? », « quand puis-je te faire confiance ? ».

La suite ici

(Visited 162 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *