Start Blog

Google stellt Gemma 3 270M für spezialisierte Feinabstimmung vor

Google DeepMind hat Gemma 3 270M vorgestellt, ein kompaktes Modell innerhalb der Gemma-3-Familie. Laut Ankündigung ist es von Grund auf für aufgabenspezifische Feinabstimmung entwickelt und bringt bereits Fähigkeiten zum Befolgen von Anweisungen und zur Textstrukturierung mit.

Was wurde angekündigt?

Gemma 3 270M ist ein Modell mit 270 Millionen Parametern, das als Spezialwerkzeug für klar umrissene Aufgaben beschrieben wird. Google nennt als typische Einsatzfelder nach dem Fine-Tuning unter anderem Textklassifikation und Datenerfassung.

Das Modell basiert auf derselben Architektur wie die übrigen Gemma-3-Modelle. Google verweist zudem auf Dokumentation und Anleitungen für das vollständige Fine-Tuning.

Warum ist das relevant?

Nach Darstellung von Google soll ein kompaktes Modell helfen, spezialisierte KI-Systeme effizienter zu bauen. Im Vergleich zu größeren Allzweckmodellen stehen dabei geringere Betriebs- und Anpassungskosten sowie schnellere Abläufe im Vordergrund.

Die Ankündigung ordnet Gemma 3 270M als Teil einer Strategie ein, bei der Entwickler für einzelne Aufgaben kleine, spezialisierte Modelle einsetzen können.

Einordnung

Die Quelle betont vor allem Effizienz und Spezialisierung. Als Beispiel nennt Google eine Arbeit von Adaptive ML mit SK Telecom, bei der ein Gemma-3-4B-Modell für Inhaltsmoderation feinabgestimmt wurde und dabei laut Quelle besser als deutlich größere proprietäre Modelle abgeschnitten habe. Gemma 3 270M wird als nächster Schritt in Richtung noch kleinerer, spezialisierter Modelle beschrieben.

Quelle

Originalquelle: Google DeepMind News

Google DeepMind stellt Kaggle Game Arena vor

Google DeepMind stellt mit der Kaggle Game Arena eine neue öffentliche Plattform vor, auf der KI-Modelle in strategischen Spielen direkt gegeneinander antreten. Ziel ist laut Quelle eine verifizierbare und dynamische Methode zur Bewertung von Modellfähigkeiten.

Was wurde angekündigt?

Die Plattform ist auf Kaggle aufgebaut und soll eine faire, standardisierte Umgebung für die Bewertung von Modellen bieten. Als Transparenzmaßnahme werden sowohl die Spiel-Umgebungen als auch die sogenannten Harnesses, also die Verbindungen zwischen Modell und Spielregeln, als Open Source bereitgestellt. Die Endrangliste soll über ein all-play-all-System entstehen, bei dem viele Partien zwischen allen Modellpaaren gespielt werden.

Zum Start kündigt Google DeepMind eine Schach-Ausstellung am 5. August um 10:30 Uhr Pacific Time an. Dabei treten acht Frontier-Modelle in einem K.-o.-Format gegeneinander an. Die Quelle nennt außerdem, dass die endgültigen Rankings nicht aus diesem Turnierformat, sondern aus dem ausführlicheren All-play-all-Verfahren berechnet werden.

Warum ist das relevant?

Die Quelle beschreibt aktuelle KI-Benchmarks als zunehmend unzureichend, weil Modelle auf manchen Tests nahe an 100 Prozent herankommen oder Antworten aus Trainingsdaten erinnern könnten. Spiele gelten hier als nützlich, weil sie klare Ergebnisse liefern, strategisches Denken, langfristige Planung und Anpassung an einen Gegner erfordern.

Google DeepMind verweist zudem darauf, dass solche Wettbewerbe helfen können, Fortschritte bei strategischem Schlussfolgern sichtbar zu machen. Die Plattform soll nach dem Start um weitere Herausforderungen wie Go und Poker erweitert werden; später sind auch weitere Spiele vorgesehen.

Einordnung

Die Ankündigung fügt sich in die längere Nutzung von Spielen als Messinstrument bei Google DeepMind ein, von Atari über AlphaGo bis AlphaStar. Neu ist hier vor allem der Versuch, Benchmarks offener, dynamischer und regelmäßiger zu gestalten, statt nur auf statische Tests zu setzen.

Die Quelle betont zugleich, dass auch menschlich bewertete Verfahren neue Probleme mit sich bringen, etwa Subjektivität. Die Kaggle Game Arena soll deshalb als standardisierte Ergänzung zu bestehenden Evaluationsmethoden dienen, nicht als vollständiger Ersatz.

Quelle

Originalquelle: Google DeepMind News

Google bringt Deep Think in die Gemini-App

Google hat Deep Think in der Gemini-App für Google AI Ultra-Abonnenten freigeschaltet. Die Funktion ist eine Variante des Gemini 2.5 Deep Think-Modells und wird zunächst mit einer festen Zahl von Prompts pro Tag angeboten.

Was wurde angekündigt?

Laut Google ist Deep Think ab sofort in der Gemini-App verfügbar, wenn Nutzerinnen und Nutzer im Modell-Dropdown 2.5 Pro auswählen und dort Deep Think aktivieren. Die Funktion arbeitet mit Parallel-Thinking-Techniken, kann mit Tools wie Codeausführung und Google Search zusammenarbeiten und soll längere Antworten erzeugen. Google kündigt außerdem an, Deep Think in den kommenden Wochen auch über die Gemini API für eine Gruppe vertrauenswürdiger Tester bereitzustellen, mit und ohne Tools.

Warum ist das relevant?

Google beschreibt Deep Think als Werkzeug für Aufgaben, die Kreativität, strategische Planung und schrittweises Arbeiten erfordern. Genannt werden unter anderem iterative Entwicklung und Design, wissenschaftliche und mathematische Fragestellungen sowie anspruchsvolle Coding-Aufgaben. In internen Tests habe das Modell im Vergleich zu Gemini 2.5 Pro eine bessere Inhaltssicherheit und objektivere Tonalität gezeigt, zugleich aber häufiger harmlose Anfragen abgelehnt.

Einordnung

Die Ankündigung zeigt, wie Google seine Gemini-Modelle um einen stärker auf längeres Schlussfolgern ausgelegten Modus erweitert. Die Quelle nennt sowohl Fortschritte bei Benchmarks als auch Hinweise aus frühen Tests, verweist aber auch auf Sicherheitsarbeit und weitere Bewertungen. Für die Einordnung wichtig ist zudem, dass Google Deep Think als Teil seines Ultra-Angebots und zunächst mit begrenzter Nutzung ausrollt.

Offene Punkte

Google nennt für die Gemini-App eine feste Zahl von Prompts pro Tag, ohne diese im Text zu beziffern. Zudem soll die API-Version erst in den kommenden Wochen für ausgewählte Tester folgen.

Quelle

Originalquelle: Google DeepMind News

Google DeepMind kooperiert mit Commonwealth Fusion Systems an Fusionsenergie-Forschung

Google DeepMind kündigt eine Forschungskooperation mit Commonwealth Fusion Systems (CFS) an. Im Mittelpunkt steht der Einsatz von KI, um zentrale physikalische und steuerungstechnische Fragen der Fusionsenergie besser zu untersuchen.

Was wurde angekündigt?

Die Zusammenarbeit soll drei Bereiche voranbringen: eine schnelle und differenzierbare Simulation des Fusionsplasmas, die Suche nach einem effizienten und robusten Weg zur Maximierung der Fusionsleistung sowie den Einsatz von Reinforcement Learning für neue Echtzeit-Steuerungsstrategien.

Als technischer Bezugspunkt nennt DeepMind seine frühere Arbeit zur Kontrolle von Plasma und den Open-Source-Simulator TORAX, der für Optimierung und Steuerung entwickelt wurde.

Warum ist das relevant?

Fusion gilt laut Quelle als möglicher Weg zu sauberer und reichlich verfügbarer Energie. Die praktische Umsetzung ist jedoch komplex, weil Plasma bei sehr hohen Temperaturen stabil gehalten werden muss. Genau hier soll KI helfen, indem sie Simulationen und Steuerung verbessert.

DeepMind schreibt, dass TORAX CFS dabei unterstützt, vor dem Einsatz von SPARC Millionen virtueller Experimente durchzuführen und Operating Plans schneller anzupassen, sobald erste Daten vorliegen.

Einordnung

Die Ankündigung knüpft an frühere Forschungsarbeiten von Google DeepMind im Bereich Plasma-Steuerung an und verbindet diese mit der Hardware-Entwicklung von CFS. Der Beitrag bleibt dabei eng auf Forschung und Simulation fokussiert; Aussagen über einen baldigen praktischen Durchbruch werden in der Quelle nicht gemacht.

Quelle

Originalquelle: Google DeepMind News

Google DeepMind stellt CodeMender für Code-Sicherheit vor

Google DeepMind hat mit CodeMender einen KI-Agenten vorgestellt, der bei der Analyse und Behebung von Sicherheitslücken in Code helfen soll.

Was wurde angekündigt?

Laut Google DeepMind prüft CodeMender Codeänderungen automatisch und gibt nur dann Patches zur menschlichen Sichtung weiter, wenn sie mehrere Kriterien erfüllen. Dazu gehören, dass die Ursache des Problems behoben wird, die Änderung funktional korrekt ist, keine Regressionen verursacht und den Stilrichtlinien entspricht.

Für die Arbeit an den Patches nutzt CodeMender laut Quelle unter anderem statistische und dynamische Analyse, Differential Testing, Fuzzing und SMT-Solver. Außerdem kommen Multi-Agenten-Ansätze zum Einsatz, darunter ein auf einem Sprachmodell basierendes Kritik-Tool, das Unterschiede zwischen Original- und geändertem Code überprüft.

Warum ist das relevant?

Die Quelle verweist darauf, dass Fehler bei der Code-Sicherheit kostspielig sein können. Ein System, das nicht nur Symptome, sondern auch die Ursache einer Schwachstelle identifizieren und geeignete Patches vorschlagen kann, ist deshalb für die Sicherheitsarbeit in Softwareprojekten relevant.

Google DeepMind nennt als Beispiel, dass CodeMender bei einer Schwachstelle die eigentliche Ursache nicht sofort im Crash-Report fand, sondern ein Problem bei der Stack-Verwaltung von XML-Elementen während des Parsens identifizierte. Ein weiteres Beispiel beschreibt einen komplexeren Patch bei einem Objekt-Lebensdauerproblem.

Einordnung

Die Veröffentlichung bleibt bei einer Forschungs- und Systembeschreibung. Sie zeigt, dass Google DeepMind an Werkzeugen arbeitet, die Sicherheitsanalyse und Patch-Erstellung stärker automatisieren sollen. Gleichzeitig betont die Quelle die Einbindung menschlicher Prüfung, was darauf hindeutet, dass CodeMender als Unterstützung und nicht als vollständig autonomer Ersatz gedacht ist.

Offene Punkte

Die Quelle nennt in diesem Beitrag keine allgemeine Verfügbarkeit, keine Leistungskennzahlen und keine Details dazu, in welchen Projekten oder in welchem Umfang CodeMender bereits eingesetzt wird.

Quelle

Originalquelle: Google DeepMind News