Modèles ouverts Gemma

Une famille de modèles ouverts, légers et à la pointe de la technologie, basés sur les mêmes recherches et technologies que celles utilisées pour créer les modèles Gemini

Icône "Responsible by design" (Concevoir de manière responsable)

Conception responsable

Intégrant des mesures de sécurité complètes, ces modèles contribuent à garantir des solutions d'IA responsables et fiables grâce à des ensembles de données sélectionnés et à un réglage rigoureux.

Icône Performances inégalées

Performances inégalées en termes de taille

Les modèles Gemma obtiennent des résultats de référence exceptionnels dans leurs tailles 2 B, 7 B, 9 B et 27 B, dépassant même certains modèles ouverts plus volumineux.

Souplesse du framework

Déploiement flexible

Déployez facilement sur mobile, Web et cloud à l'aide de Keras, JAX, MediaPipe, PyTorch, Hugging Face et plus encore.

Essayez Gemma 2

Repensé pour offrir des performances exceptionnelles et une efficacité inégalée, Gemma 2 optimise les inférences ultrarapides sur différents matériels.

5 tirs

MMLU

Le benchmark MMLU (Massive Multitask Language Understanding) mesure l'étendue des connaissances et les capacités de résolution de problèmes acquises par les grands modèles de langage lors du pré-entraînement.

25 coups

ARC-C

Le benchmark ARC-c est un sous-ensemble plus ciblé de l'ensemble de données ARC-e. Il ne contient que des questions auxquelles des algorithmes courants (basés sur la récupération et la cooccurrence de mots) ont répondu de manière incorrecte.

5 tirs

GSM8K

Le benchmark GSM8K teste la capacité d'un modèle de langage à résoudre des problèmes mathématiques de niveau primaire qui nécessitent souvent plusieurs étapes de raisonnement.

3-5-shot

AGIEval

Le benchmark AGIEval évalue l'intelligence générale d'un modèle de langage à l'aide de questions issues d'examens réels conçus pour évaluer les capacités intellectuelles humaines.

3-shot, CoT

BBH

Le benchmark BBH (BIG-Bench Hard) se concentre sur les tâches jugées au-delà des capacités des modèles de langage actuels, en testant leurs limites dans divers domaines de raisonnement et de compréhension.

3 images, F1

DROP

DROP est un benchmark de compréhension de lecture qui nécessite un raisonnement distinct sur les paragraphes.

5 tirs

Winogrande

Le benchmark Winogrande teste la capacité d'un modèle de langage à résoudre des tâches de remplissage de blancs ambiguës avec des options binaires, ce qui nécessite un raisonnement généralisé de bon sens.

10 coups

HellaSwag

Le benchmark HellaSwag met à l'épreuve la capacité d'un modèle de langage à comprendre et à appliquer le raisonnement de bon sens en sélectionnant la fin la plus logique d'une histoire.

4 coups

MATH

MATH évalue la capacité d'un modèle de langage à résoudre des problèmes mathématiques complexes, qui nécessitent du raisonnement, la résolution de problèmes en plusieurs étapes et la compréhension de concepts mathématiques.

Zero-shot

ARC-e

Le benchmark ARC-e évalue les compétences avancées de réponse à des questions d'un modèle de langage à l'aide de questions scientifiques à choix multiples authentiques, de niveau primaire.

Zero-shot

PIQA

Le benchmark PIQA teste la capacité d'un modèle de langage à comprendre et à appliquer des connaissances de bon sens physiques en répondant à des questions sur les interactions physiques quotidiennes.

Zero-shot

SIQA

Le benchmark SIQA évalue la compréhension d'un modèle de langage des interactions sociales et du bon sens social en posant des questions sur les actions des individus et leurs implications sociales.

Zero-shot

Boolq

Le benchmark BoolQ teste la capacité d'un modèle de langage à répondre aux questions "oui/non" naturelles, ce qui permet de tester sa capacité à effectuer des tâches d'inférence en langage naturel dans le monde réel.

5 tirs

TriviaQA

Le benchmark TriviaQA évalue les compétences de compréhension de la lecture à l'aide de triples question-réponse-preuve.

5 tirs

NQ

Le benchmark NQ (Natural Questions) teste la capacité d'un modèle de langage à trouver et à comprendre des réponses dans des articles Wikipedia entiers, en simulant des scénarios de questions-réponses réels.

pass@1

HumanEval

Le benchmark HumanEval teste les capacités de génération de code d'un modèle de langage en évaluant si ses solutions passent les tests unitaires fonctionnels pour les problèmes de programmation.

3-shot

MBPP

Le benchmark MBPP teste la capacité d'un modèle de langage à résoudre des problèmes de programmation Python de base, en se concentrant sur les concepts de programmation fondamentaux et l'utilisation de la bibliothèque standard.

100 %

75 %

50 %

25 %

0 %

100 %

75 %

50 %

25 %

0 %

Gemma 1

2,5 Mrds

42.3

Gemma 2

2,6 Md

51.3

Mistral

7B

62,5

LLAMA 3

8 B

66,6

Gemma 1

7B

64,4

Gemma 2

9 milliards

71,3

Gemma 2

27B

75,2

Gemma 1

2,5 Mrds

48,5

Gemma 2

2,6 Md

55.4

Mistral

7B

60.5

LLAMA 3

8 B

59.2

Gemma 1

7B

61.1

Gemma 2

9 milliards

68,4

Gemma 2

27B

71,4

Gemma 1

2,5 Mrds

15.1

Gemma 2

2,6 Md

23,9

Mistral

7B

39,6

LLAMA 3

8 B

45.7

Gemma 1

7B

51,8

Gemma 2

9 milliards

68,6

Gemma 2

27B

74

Gemma 1

2,5 Mrds

24.2

Gemma 2

2,6 Md

30,6

Mistral

7B

44.0

LLAMA 3

8 B

45.9

Gemma 1

7B

44,9

Gemma 2

9 milliards

52,8

Gemma 2

27B

55.1

Gemma 1

2,5 Mrds

35.2

Gemma 2

2,6 Md

41.9

Mistral

7B

56

LLAMA 3

8 B

61.1

Gemma 1

7B

59

Gemma 2

9 milliards

68.2

Gemma 2

27B

74.9

Gemma 1

2,5 Mrds

48,5

Gemma 2

2,6 Md

52

Mistral

7B

63,8

LLAMA 3

8 B

58.4

Gemma 1

7B

56,3

Gemma 2

9 milliards

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 Mrds

66,8

Gemma 2

2,6 Md

70,9

Mistral

7B

78,5

LLAMA 3

8 B

76,1

Gemma 1

7B

79

Gemma 2

9 milliards

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 Mrds

71,7

Gemma 2

2,6 Md

73

Mistral

7B

83,0

LLAMA 3

8 B

82

Gemma 1

7B

82,3

Gemma 2

9 milliards

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 Mrds

11.8

Gemma 2

2,6 Md

15,0

Mistral

7B

12.7

Gemma 1

7B

24,3

Gemma 2

9 milliards

36,6

Gemma 2

27B

42.3

Gemma 1

2,5 Mrds

73,2

Gemma 2

2,6 Md

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 milliards

88

Gemma 2

27B

88,6

Gemma 1

2,5 Mrds

77,3

Gemma 2

2,6 Md

77,8

Mistral

7B

82,2

Gemma 1

7B

81,2

Gemma 2

9 milliards

81,7

Gemma 2

27B

83,2

Gemma 1

2,5 Mrds

49,7

Gemma 2

2,6 Md

51,9

Mistral

7B

47

Gemma 1

7B

51,8

Gemma 2

9 milliards

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 Mrds

69,4

Gemma 2

2,6 Md

72,5

Mistral

7B

83,2

Gemma 1

7B

83,2

Gemma 2

9 milliards

84,2

Gemma 2

27B

84,8

Gemma 1

2,5 Mrds

53.2

Gemma 2

2,6 Md

59,4

Mistral

7B

62,5

Gemma 1

7B

63,4

Gemma 2

9 milliards

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 Mrds

12,5

Gemma 2

2,6 Md

16,7

Mistral

7B

23.2

Gemma 1

7B

23.0

Gemma 2

9 milliards

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 Mrds

22.0

Gemma 2

2,6 Md

17.7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9 milliards

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 Mrds

29,2

Gemma 2

2,6 Md

29,6

Mistral

7B

40,2

Gemma 1

7B

44,4

Gemma 2

9 milliards

52,4

Gemma 2

27B

62,6

*Il s'agit des benchmarks des modèles pré-entraînés. Consultez le rapport technique pour en savoir plus sur les performances avec d'autres méthodologies.

PaliGemma 2 Nouveau

PaliGemma 2 apporte des fonctionnalités de vision facilement ajustables aux modèles de langage Gemma 2, ce qui permet de développer un large éventail d'applications combinant la compréhension du texte et de l'image.

DataGemma

DataGemma est le premier modèle ouvert conçu pour connecter les LLM à de vastes données réelles issues du Data Commons de Google.

Champ d'application de Gemma

Gemma Scope offre aux chercheurs une transparence sans précédent sur les processus de prise de décision de nos modèles Gemma 2.

Déployer des modèles

Choisir votre cible de déploiement

Icône Déployer pour mobileMobile

Déployer sur l'appareil avec Google AI Edge

Déployez directement sur les appareils pour bénéficier d'une fonctionnalité hors connexion à faible latence. Idéal pour les applications nécessitant une réactivité et une confidentialité en temps réel, telles que les applications mobiles, les appareils IoT et les systèmes embarqués.

Icône du WebWeb

Intégration parfaite aux applications Web

Donnez à vos sites Web et services Web des fonctionnalités avancées d'IA, qui vous permettront de proposer des fonctionnalités interactives, du contenu personnalisé et une automatisation intelligente.

Icône CloudCloud

Évoluez sans effort avec une infrastructure cloud

Exploitez l'évolutivité et la flexibilité du cloud pour gérer les déploiements à grande échelle, les charges de travail exigeantes et les applications d'IA complexes.

Permettre la communication à l'échelle mondiale

Rejoignez notre concours Kaggle international. Créer des variantes de modèle Gemma pour une langue spécifique ou un aspect culturel unique