Une nouvelle étude montre comment de grands modèles de langage comme GPT-3 peuvent apprendre une nouvelle tâche à partir de quelques exemples seulement, sans avoir besoin de nouvelles données d’entraînement
Les grands modèles de langage comme le GPT-3 d’OpenAI sont des réseaux de neurones massifs qui peuvent générer du texte de type humain, de la poésie au code de programmation. Formés à l’aide de...