Gemma Open Models
משפחה של מודלים חד-פעמיים קלילים ואומנותיים שפותחה מאותם מחקר וטכנולוגיה ששימשו ליצירת המודלים של Gemini.
חדש:
Gemma 2
Gemma 2 עוצבה מחדש כדי לספק ביצועים יוצאי דופן ויעילות שאין שני לה, והיא מבצעת אופטימיזציה להסקת מסקנות במהירות מסחררת בחומרה מגוונת.
5 שוטים
MMLU
מדד MMLU הוא בדיקה למדידת היקף הידע ויכולת פתרון הבעיות שמודלים גדולים של שפה צוברים במהלך ההדרכה המקדימות.
25 תמונות
ARC-C
מדד ARC-c הוא קבוצת משנה ממוקדת יותר של מערך הנתונים ARC-e, שמכילה רק שאלות שהאלגוריתמים הנפוצים (מבוססי אחזור ואירועים נלווים של מילים) לא הצליחו לענות עליהן נכון.
5-shot
GSM8K
נקודת ההשוואה GSM8K בוחן את היכולת של מודל שפה לפתור בעיות מתמטיות ברמת בית הספר של הכיתה, שמחייבות לעיתים קרובות שלבים מרובים.
3-5-shot
AGIEval
בעזרת מדד AGIEval אפשר לבדוק את האינטליגנציה הכללית של מודל שפה באמצעות שאלות שמבוססות על בחינות בעולם האמיתי שנועדו להעריך את היכולות האינטלקטואליות של בני אדם.
3-shot, CoT
BBH
נקודת ההשוואה BBH (BIG-Bench Hard) מתמקדת במשימות מעבר ליכולת של מודלי השפה הנוכחיים, ובודקת את הגבולות שלהן במגוון תחומים של הסקת מסקנות והבנה.
3 צילומים, F1
להתכופף
DROP הוא מדד למדידת הבנת הנקרא, שדורש חשיבה דיסקרטית על קטעים.
5 שוטים
Winogrande
בעזרת מדד Winogrande אפשר לבדוק את היכולת של מודל שפה לפתור משימות לא ברורות של מילוי החסר עם אפשרויות בינאריות, שדורשות חשיבה כללית לפי תחושת בטן.
10 צילומים
HellaSwag
בעזרת מדד HellaSwag אפשר לבדוק את היכולת של מודל שפה להבין וליישם את ההיגיון הבריא, על ידי בחירת הסיום הכי לוגי לסיפור.
4 שוטים
MATH
המדד MATH מעריך את היכולת של מודל שפה לפתור בעיות מילוליות מתמטיות מורכבות, שדורשות חשיבה, פתרון בעיות בכמה שלבים והבנה של מושגים מתמטיים.
0-shot
ARC-e
בעזרת מדד ARC-e אפשר לבדוק את היכולות המתקדמות של מודל שפה לענות על שאלות באמצעות שאלות אמריקאיות אמיתיות בנושאי מדע ברמת בית הספר היסודי.
0-shot
PIQA
נקודת ההשוואה של PIQA בודקת את היכולת של מודל שפה להבין וליישם ידע פיזיקלי באמצעות מענה על שאלות לגבי אינטראקציות פיזיות יומיומיות.
0-shot
SIQA
נקודת ההשוואה של SIQA בודקת את ההבנה של מודל שפה לגבי אינטראקציות חברתיות והיגיון חברתי, באמצעות שאילת שאלות לגבי פעולות של אנשים וההשלכות החברתיות שלהם.
0-shot
Boolq
נקודת ההשוואה ב-BolQ בודקת את היכולת של מודל שפה לענות על שאלות "כן" ו"לא" באופן טבעי, ובודקת את היכולת של המודלים לבצע משימות של הסקת מסקנות משפה טבעית בעולם האמיתי.
5 שוטים
TriviaQA
במדד הביצועים של TriviaQA נבדקות מיומנויות הבנת הנקרא באמצעות טריופל של שאלה-תשובה-הוכחה.
5-shot
NQ
נקודת ההשוואה ב-NQ (שאלות טבעיות) בודקת את היכולת של מודל שפה למצוא ולהבין תשובות בתוך מאמרים שלמים בוויקיפדיה, באמצעות הדמיית תרחישים של מענה לשאלות בעולם האמיתי.
Pass@1
HumanEval
נקודת ההשוואה של HumanEval בודקת את יכולות יצירת הקוד של מודל שפה מסוים על ידי הערכה אם הפתרונות שלו עוברים בדיקות יחידה פונקציונלית לבעיות תכנות.
3 שוטים
MBPP
במדד MBPP נבדקת היכולת של מודל שפה לפתור בעיות תכנות בסיסיות ב-Python, תוך התמקדות במושגי תכנות בסיסיים ובשימוש בספריות סטנדרטיות.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
לאמה 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
לאמה 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
לאמה 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
לאמה 3
8B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
לאמה 3
8B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
Gemma 1
7 מיליארד
Gemma 2
9 מיליארד
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9B
Gemma 2
27B
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7B
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27 מיליארד
Gemma 1
2.5 מיליארד
Gemma 2
2.6 מיליארד
Mistral
7 מיליארד
Gemma 1
7B
Gemma 2
9 מיליארד
Gemma 2
27B
*אלה מדדי העזר של המודלים שהוכשרו מראש. בדוח הטכני מפורטים פרטים על הביצועים בשיטות אחרות.
משפחת הדגמים Gemma
מדריכים למתחילים למפתחים
מדריכים למתחילים לשותפים
המתכונים שלי ל-Gemma
בואו לעיין באוסף מתכונים מעשיים ודוגמאות שמציגים את הכוח והמגוון של השימוש ב-Gemma למשימות כמו הוספת כיתוב לתמונה באמצעות PaliGemma, יצירת קוד באמצעות CodeGemma ובניית צ'אט בוטים עם מודלים עדינים של Gemma.
פיתוח אחראי של AI
אחריות במרכז
המודלים עוברים אימון מראש על נתונים שנאספו בקפידה, ומכווננים לשמירה על בטיחות. כך אפשר לפתח AI בטוח ואחראי על סמך מודלים של Gemma.
בדיקה חזקה ושקופה
הערכות מקיפות ודוחות שקופים חושפים את המגבלות של המודלים, כדי שתוכלו לנקוט גישה אחראית לכל תרחיש לדוגמה.
פיתוח אחראי
ערכת הכלים האחריות של בינה מלאכותית גנרטיבית תומכת במפתחים לפתח ולהטמיע שיטות מומלצות לשמירה על בינה מלאכותית (AI).
מותאמים ל-Google Cloud
בעזרת מודלים של Gemma ב-Google Cloud, אפשר להתאים אישית את המודל בצורה יסודית לצרכים הספציפיים שלכם באמצעות הכלים המנוהלים במלואם של Vertex AI או האפשרות העצמאית של GKE, ולפרוס אותו בתשתית גמישה וחסכונית שמותאמת ל-AI.
האצת המחקר האקדמי באמצעות קרדיטים ב-Google Cloud
תוכנית המחקר האקדמי סיימה לאחרונה את תקופת היישום שלה והעניקה קרדיטים ל-Google Cloud כדי לתמוך בחוקרים שפורצים את גבולות הגילוי המדעי באמצעות מודלים של Gemma. אנחנו שמחים לראות את המחקר הפורץ דרך שייצא מהיוזמה הזו.
הצטרפות לקהילה
קהילת המודלים של למידת המכונה מאפשרת לכם להתחבר לאנשים אחרים, ללמוד מהם ולשתף את הידע שלכם.