Google stellt Gemma 3 und ShieldGemma 2 vor

Google hat Gemma 3 vorgestellt, eine neue Familie leichter offener Modelle, die auf derselben Forschung und Technologie wie Gemini 2.0 basiert. Die Modelle sind in den Größen 1B, 4B, 12B und 27B verfügbar und darauf ausgelegt, schnell direkt auf Geräten wie Smartphones, Laptops und Workstations zu laufen.

Nach Angaben von Google ist Gemma 3 das leistungsfähigste Modell für einen einzelnen Beschleuniger. In vorläufigen Human-Preference-Auswertungen auf dem LMArena-Leaderboard soll Gemma 3 für seine Größe andere Modelle wie Llama3-405B, DeepSeek-V3 und o3-mini übertroffen haben. Genannt werden außerdem Unterstützung für mehr als 35 Sprachen ab Werk und vortrainierte Unterstützung für mehr als 140 Sprachen, multimodale Fähigkeiten für Bild-, Text- und kurze Videoanalyse, ein Kontextfenster von 128.000 Tokens sowie Function Calling und strukturierte Ausgaben. Zusätzlich veröffentlicht Google offizielle quantisierte Varianten, die Modellgröße und Rechenaufwand senken sollen, bei hoher Genauigkeit.

Google verweist für technische Details und den Ansatz zur verantwortungsvollen Entwicklung auf den technischen Bericht zu Gemma 3. Die Entwicklung habe Daten-Governance, Fine-Tuning entlang interner Sicherheitsrichtlinien und robuste Benchmark-Auswertungen umfasst. Wegen der verbesserten STEM-Leistung seien zudem spezielle Prüfungen zum möglichen Missbrauch bei der Herstellung schädlicher Substanzen durchgeführt worden; laut Google deuten die Ergebnisse auf ein niedriges Risikoniveau hin.

Zusammen mit Gemma 3 startet Google auch ShieldGemma 2. Dabei handelt es sich um einen offenen 4B-Image-Safety-Checker auf Basis von Gemma 3, der Sicherheitslabels in drei Kategorien ausgibt: gefährliche Inhalte, sexuell explizite Inhalte und Gewalt. Entwickler können ShieldGemma 2 laut Google an eigene Sicherheitsanforderungen und Nutzergruppen anpassen.

Gemma 3 und ShieldGemma 2 werden für bestehende Entwicklungswerkzeuge und Plattformen bereitgestellt. Unterstützt werden unter anderem Hugging Face Transformers, Ollama, JAX, Keras, PyTorch, Google AI Edge, UnSloth, vLLM und Gemma.cpp. Der Zugriff ist über Google AI Studio möglich, Downloads stehen über Kaggle und Hugging Face bereit. Für Fine-Tuning und Bereitstellung nennt Google unter anderem Google Colab, Vertex AI, Cloud Run, die Google GenAI API, lokale Umgebungen sowie weitere Plattformen. NVIDIA habe die Modelle für GPUs optimiert; außerdem werden Optimierungen für Google Cloud TPUs, AMD-GPUs über ROCm und CPU-Ausführung mit Gemma.cpp genannt.

Google beschreibt den bestehenden Community-Kontext als „Gemmaverse“ und nennt mehr als 100 Millionen Downloads der Gemma-Familie sowie über 60.000 Varianten aus der Community. Als Beispiele führt das Unternehmen SEA-LION v3 von AI Singapore, BgGPT von INSAIT und OmniAudio von Nexa AI an.

Zudem startet Google das Gemma 3 Academic Program. Forschende aus dem akademischen Bereich können sich für Google-Cloud-Guthaben im Wert von 10.000 US-Dollar pro Bewilligung bewerben, um Gemma-3-basierte Forschung zu beschleunigen. Das Bewerbungsformular ist laut Google ab sofort für vier Wochen geöffnet.

Quelle

Originalquelle: Google DeepMind News

Recent Articles

spot_img

Related Stories

Leave A Reply

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Stay on op - Ge the daily news in your inbox