Pouvons-nous nous permettre de contrôler l’IA, et inversement ?

Certaines personnes sont effrayées que des robots artificiellement et lourdement armés ne puissent prendre le contrôle du monde, asservir l’humanité, ou peut-être nous exterminer. En tant que chercheur sur la façon dont fonctionne l’intelligence artificielle (IA) dans la prise de décision robotique, les drones et les véhicules autonomes, j’ai vu à quel point cela pouvait être bénéfique. J’ai développé un logiciel d’IA qui permet aux robots travaillant en équipe de prendre des décisions individuelles, dans le cadre d’efforts collectifs pour explorer et résoudre des problèmes. Les chercheurs sont déjà soumis à des règles, règlements et lois en vigueur visant à protéger la sécurité publique. Imposer d’autres limites risque de réduire le potentiel d’innovation des systèmes d’IA.

Si le terme IA évoque des images de robots humanoïdes alimentées par des films de science fiction, la plupart des gens utilisent déjà l’IA. Ces systèmes nous aident à trouver des produits similaires lors d’achats, proposent des recommandations de films et de télévision et nous aident à trouver des sites Web. Ils évaluent la rédaction des étudiants, offrent un tutorat personnalisé et reconnaissent même les objets transportés par les scanners d’aéroport. Dans chaque cas, l’IA facilitent les tâches aux humains.

Dans ces domaines et dans bien d’autres, l’IA a le potentiel de faire beaucoup plus de bien que de mal ; si elle est utilisée correctement. Il existe déjà des lois à l’échelle des nations, des États et des villes régissant les responsabilités civiles et pénales pour les actions nuisibles. NLe drones, par exemple, doivent obéir à la réglementation de la FAA, tandis que la voiture autonome doit obéir aux lois de la circulation pour circuler sur les voies publiques.

Les lois existantes couvrent également le cas d’un robot qui blesserait ou tuerait une personne, même si la blessure est accidentelle et que le programmeur ou l’opérateur du robot n’est pas pénalement responsable.

Musk et Hawking, entre autres, craignent que les systèmes d’IA les plus performants, ne se limitant plus à un seul ensemble de tâches comme le contrôle d’une voiture autonome, puissent décider de ne plus avoir besoin d’humains. Isaac Asimov, auteur de science fiction, a déjà tenté d’endiguer cette menace en proposant trois lois limitant la prise de décision des robots : les robots ne peuvent pas blesser les humains ou ne sont pas autorisés de leur « nuire ». Ils doivent aussi obéir aux humains, à moins que cela ne nuise aux humains, et se protéger eux-mêmes. Plutôt que de réglementer ce que les systèmes d’IA peuvent et ne peuvent pas faire, il serait préférable de leur enseigner l’éthique et les valeurs humaines ; comme les parents le font avec les enfants humains.

Les gens bénéficient déjà de l’IA tous les jours, mais ce n’est que le début. Les robots intelligents peuvent aussi aider les humains d’autres façons. Ils peuvent effectuer des tâches répétitives  où l’ennui humain peut causer des erreurs. Pour concrétiser ces opportunités, il faudra beaucoup plus de recherche et de développement. Les règlements qui rendent plus coûteux le développement d’IA ou la prévention de certaines utilisations peuvent retarder voir empêcher ces travaux d’aboutir.

L’humanité a fait face à un ensemble de problèmes similaires dans les premiers jours d’Internet. Mais les Etats-Unis ont activement évité de réguler Internet pour ne pas retarder sa montée en puissance. Les systèmes d’iIAe ont le potentiel de changer la façon dont les humains font à peu près tout. Les scientifiques, les ingénieurs, les programmeurs et les entrepreneurs ont besoin de temps pour développer les technologies et ainsi en délivrer les bénéfices. Leur travail devrait être exempt de toute crainte que certaines IA puissent être interdites, ainsi que des retards et des coûts associés aux nouvelles réglementations spécifiques à l’IA.

La suite ici (Jeremy Straub)

(Visited 296 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

1 commentaire

  1. Les machines ayant des applications ciblées et objectives ont un avenir souriant.
    Les machines plus subjectives et généralistes ne présenteront, selon moi nullement spécialiste de ces questions là, aucun intérêt à long terme, excepté si on les cantonne à éliminer des biais contenus dans les big data d’origine humaine.

    Vous êtes bien d’accord que sur un plan strictement logique ce qui est absurde pour l’humain devrait l’être aussi pour une machine.

    Dans une telle situation, l’humain puisera dans son expérience personnelle très limitée (Simon Herbert dans les années 60 et svt) quelques données pour sortir de l’impasse et assumer sa responsabilité.

    En face d’une situation semblable d’absurdité (et non d’un simple dilemme du style de ceux qu’on pose pour un véhicule autonome) – à condition qu’on ait été capable de la détecter (ce qui est aussi un sacré problème, Gödel etc.) – l’expérience personnelle de la machine intelligente sera sans commune mesure avec celle d’un humain.

    Est-ce que ça lui permettra de mieux résoudre le problème qu’un humain ?

    Puisqu’il s’agit d’une absurdité, personne ne sait si à partir d’un certain niveau de performance, la machine aura emmagasiné suffisamment de data de subjectivités pour mieux répondre en responsabilité qu’un humain ?

    En effet par essence elle dépasse les humains dans toutes leurs capacités et leurs performances. Elle ne peut donc rien apprendre d’eux, par le biais de big data.

    Elle ne peut apprendre qu’en dialoguant avec quelques génies humains, s’il y en a à sa disposition, mais pas très vite, ou en dialoguant avec d’autres machines de sa catégorie.

    Conclusion : on n’ira pas très loin dans la certitude de progrès que pourrait apporter ce genre de machine intelligente ultra performante qui n’a plus de sources suffisantes pour s’éduquer. J’ai posé cette interrogation pour des machines subjectives, mais elle pourrait – me semble-t-il s’étendre aux machines ayant des applications ciblées, qui poseraient des problèmes d’apprentissage à chaque évolution technique de leur domaine d’application.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *