Google a un plan pour empêcher sa nouvelle IA d’être vulgaire

deep tech innovation IA Google éthique
deep tech innovation IA Google éthique
Image by mohamed Hassan from Pixabay

Technologie sans conscience n’est que ruine de l’Homme.

Pourquoi cet article est intéressant ?  L. Bardon . – Il a été démontré à plusieurs reprises que les systèmes d’IA causent des problèmes qui touchent de manière disproportionnée les groupes marginalisés tout en profitant à quelques privilégiés. Les efforts éthiques mondiaux en matière d’IA en cours aujourd’hui – il y en a des dizaines – visent à aider tout le monde à bénéficier de cette technologie et à empêcher qu’elle ne cause des dommages. En général, il s’agit de créer des lignes directrices et des principes à suivre par les développeurs, les bailleurs de fonds et les régulateurs. 

❌Malgré tous les discours sur les questions éthiques liées  l’IA, les directives éthiques de nombreuses organisations restent vagues et difficiles à mettre en œuvre. Peu d’entreprises peuvent montrer des changements tangibles dans la façon dont les produits et services d’IA sont évalués et approuvés. De plus, “équité”, “vie privée” et “partialité” ont des significations différentes selon les endroits. Les gens ont également des attentes différentes à l’égard de ces concepts en fonction de leurs propres réalités politiques, sociales et économiques. Les défis et les risques posés par l’IA diffèrent également en fonction du lieu où l’on se trouve. Malgré les risques, il existe un manque évident de diversité régionale dans de nombreux conseils consultatifs, groupes d’experts et conseils d’IA nommés par les principales organisations internationales.

 ✅Comparée à l’éthique biomédicale, l’éthique de l’IA n’est pas très opérationnelle. Elle se concentre trop sur des principes de haut niveau. Nous sommes tous d’accord sur le fait que l’IA doit être utilisée pour le bien. Mais qu’est-ce que cela signifie réellement ? Et que se passe-t-il lorsque des principes de haut niveau entrent en conflit ? A qui la santé donne-t-elle la priorité ? Comment sauver des vies sans détruire l’économie ? Si une IA est utilisée dans la prise de décision publique, la transparence est plus importante que jamais. Nous devrions envisager l’éthique différemment. Elle devrait simplement faire partie de la façon dont nous construisons ces systèmes en premier lieu via l’éthique by design. 

🌊Le présent est la bêta version du futur.


Synthèse

Lors de la récente conférence annuelle de son entreprise, le PDG de Google, Sundar Pichai, a annoncé un test bêta de « l’IA conversationnelle la plus avancée à ce jour » de Google.

M. Pichai a déclaré que le chatbot, connu sous le nom de LaMDA 2, peut converser sur n’importe quel sujet et qu’il a obtenu de bons résultats lors de tests effectués avec des employés de Google. Il a annoncé la création d’une application appelée AI Test Kitchen, qui permettra aux personnes extérieures d’essayer le robot. Mais Pichai a ajouté un avertissement: »Bien que nous ayons amélioré la sécurité, le modèle peut encore générer des réponses inexactes, inappropriées ou offensantes », a-t-il déclaré.

LaMDA (Language Model for Dialogue Applications) de Google est un exemple de ce que les chercheurs en apprentissage automatique appellent un grand modèle linguistique. Ce terme est utilisé pour décrire un logiciel qui construit une tendance statistique pour les modèles de langage en traitant d’énormes volumes de texte, généralement en ligne. Il peut être entraîné avec plus de mille milliards de mots provenant de forums en ligne, de sites de questions-réponses, de Wikipédia et d’autres pages Web. Ce vaste réservoir de données aide l’algorithme à effectuer des tâches telles que la génération de textes dans différents styles, l’interprétation de nouveaux textes ou le fonctionnement en tant que chatbot. Actuellement, Google Assistant et Alexa d’Amazon ne peuvent effectuer que certaines tâches préprogrammées et se défilent lorsqu’on leur présente quelque chose qu’ils ne comprennent pas. Ce que Google propose, c’est un ordinateur auquel vous pouvez réellement parler. Et ces systèmes, s’ils fonctionnent, ne ressembleront en rien aux chatbots frustrants que vous utilisez aujourd’hui.

M. Pichai a présenté la future application AI Test Kitchen de Google comme un moyen pour les personnes extérieures à l’entreprise de l’aider à poursuivre ce projet d’assainissement, tout en testant des idées sur la façon de transformer un chatbot avancé, mais parfois détraqué, en un produit. Google n’a pas précisé quand l’application serait lancée, ni qui y aurait accès en premier.

L’application comprendra initialement trois expériences différentes alimentées par LaMDA. La collecte d’informations sur les performances de ces trois démonstrations devrait permettre d’améliorer LaMDA, mais il n’est pas certain qu’il puisse dompter totalement un tel système.

La suite ici (Tom Simonite)

(Visited 1 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *