L’IA peut être légalement responsable de ses décisions

L’intelligence artificielle (IA) est appelée à jouer un rôle beaucoup plus important dans la société. Et cela soulève la question de la responsabilité. Si nous comptons sur des machines pour prendre des décisions de plus en plus importantes, nous aurons besoin de mécanismes de retour arrière si les résultats s’avèrent inacceptables ou difficiles à comprendre.

Mais concevoir des systèmes d’IA capables d’expliquer leurs décisions n’est pas simple. Cela nécessiterait des ressources considérables tant en terme de développement du système d’IA que dans la façon dont il est interrogé sur ses résultats. Les explications pourraient aussi révéler des secrets commerciaux en forçant les développeurs à publier le fonctionnement interne du système d’IA. Enfin, ces systèmes sont en mesure de donner un sens à des données complexes qui n’ont pas de sens pour nous. En rendant les résultats compréhensibles pour les humains cela pourrait nécessiter diminuer leurs performances.

Comment, alors, rendre l’IA responsable de ses décisions sans étouffer l’innovation ?

Des premières réponses émergent, notamment grâce au travail de Finale Doshi-Velez, Mason Kortz, et d’autres à l’Université de Harvard à Cambridge, Massachusetts. Des informaticiens, des chercheurs en sciences cognitives et des juristes ont exploré ensemble les problèmes juridiques soulevés par les systèmes d’IA, identifié les problèmes clés et suggéré des solutions potentielles.

La suite ici (Emerging Technology from the arXiv)

(Visited 69 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *