Le nouveau générateur de langage GPT-3 d’OpenAI est étonnamment bon – et complètement stupide

deep tech innovation IA
deep tech innovation IA
Image by Comfreak

L. Bardon . – La mission d’OpenAI, maintenant stimulée par l’infrastructure cloud de Microsoft et la mise à disposition de nouveaux capitaux, pourrait jouer un rôle vital dans notre conception collective, la réglementation et l’atténuation des risques du développement de l’IA au cours de la prochaine décennie. Néanmoins les résultats obtenus par ces technologies et le virage commercial d’OpenAI interrogent sur le fait que ce types d’outils améliorent ou au contraire dégradent la démocratie (via la propogation de fake news ultra-réalistes en masse par exemple). Pour autant, nous sommes constamment tiraillés entre nos besoins et nos désirs. Dès lors, comment pourrions-nous être capables de prendre, seuls, les meilleures décisions possibles pour créer un monde meilleur ? Une intelligence artificielle pourrait-elle nous y aider ? Est-ce qu’elle améliorerait un système démocratique qui a montré ses limites ou elle le disrupterait carrément ? Et finalement ça veut dire quoi un monde meilleur ?

OpenAI a décrit pour la première fois GPT-3 dans un document de recherche publié en mai. Mais il y a quelques semaines, l’institut a commencé à donner accès au logiciel à quelques personnes sélectionnées ayant demandé l’accès à une version bêta privée. Pour l’instant, OpenAI souhaite que des développeurs externes l’aident à explorer les possibilités de GPT-3, mais elle prévoit de transformer l’outil en un produit commercial dans le courant de l’année, en proposant aux entreprises un abonnement payant à l’IA via le cloud.

GPT-3 est le modèle de langage le plus puissant qui ait jamais existé. Son prédécesseur, GPT-2, sorti l’année dernière, était déjà capable de générer des flux de texte convaincants dans une série de styles différents lorsqu’il était sollicité par une phrase d’introduction. Mais GPT-3 fait encore plus fort. Le modèle compte 175 milliards de paramètres (les valeurs qu’un réseau de neurones tente d’optimiser pendant la formation), contre 1,5 milliard pour GPT-2. Et avec les modèles linguistiques, la taille a vraiment de l’importance.

La suite ici (Will Douglas Heaven)

(Visited 90 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

%d blogueurs aiment cette page :