Site icon Actualité Houssenia Writing

L’IA à la mémoire d’éléphant : Gemini 1.5 de Google révolutionne la gestion de données

Un grand G pour Google avec le mot Gemini pour illustrer le lancement de Gemini 1.5

Les principaux points clés :

Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

Google vient de dévoiler Gemini 1.5, une mise à jour majeure de sa gamme de modèles d’IA. Sa principale caractéristique est une longueur de contexte de jetons inédite, permettant une meilleure compréhension et manipulation de données massives dans divers domaines.

Architecture MoE efficace

Gemini 1.5 utilise une architecture innovante “Mixture-of-Experts” (MoE) qui rend la formation et le déploiement plus efficaces. Cette architecture permet de diviser le modèle en plusieurs experts spécialisés dans des tâches spécifiques, ce qui optimise l’utilisation des ressources et améliore la performance globale.

Contextes gigantesques

Le modèle Gemini 1.5 Pro dispose d’un contexte standard de 128 000 jetons, ce qui représente une capacité de traitement de données considérablement supérieure aux modèles précédents. De plus, une version capable de gérer jusqu’à 1 million de jetons est accessible pour certains développeurs et entreprises, ouvrant la voie à de nouvelles applications dans des domaines comme la recherche scientifique et l’analyse de données complexes.

Selon Google, cela lui permettra de gérer d’énormes quantités de données, par exemple, une heure de vidéo, 11 heures d’audio, des bases de code de plus de 30 000 lignes ou des documents de plus de 700 000 mots.

Meilleure performance

Comparé à Gemini 1.0 Pro, le modèle Pro gagne 87,1% des benchmarks et atteint 54,8% face à Gemini 1.0 Ultra, démontrant des améliorations significatives dans divers domaines tels que les mathématiques, le code, la compréhension vidéo et la génération de texte.

Accès limité pour développeurs et entreprises

Un aperçu gratuit de Gemini 1.5 Pro est disponible via AI Studio et Vertex AI pour les développeurs et les entreprises qui souhaitent tester ses capacités et explorer son potentiel pour leurs applications spécifiques. Il est important de noter que, durant la phase de test, l’utilisation de ce modèle peut s’accompagner de temps de latence plus élevés.

Futurs tarifs basés sur la taille du contexte

Google prévoit de mettre en place une tarification progressive en fonction de la taille du contexte utilisé, allant de 128 000 à 1 million de jetons. Cette tarification évoluera en fonction des améliorations apportées au modèle et de l’augmentation de ses capacités.

Si vous avez apprécié cet article, soutenez-moi sur Patreon ou Buy me a coffee Vous recevrez chaque semaine du contenu exclusif et des réponses à vos questions. Merci ! 😊

Quitter la version mobile