Google veröffentlicht mit Gemma 3 eine neue Familie leichter offener Modelle in den Größen 1B, 4B, 12B und 27B, die auf einzelner GPU- oder TPU-Hardware laufen sollen. Parallel erscheint mit ShieldGemma 2 ein offener 4B-Sicherheitsprüfer für Bilder mit drei Sicherheitskategorien.
Google stellt die native Bildausgabe von Gemini 2.0 Flash als experimentelle Funktion in Google AI Studio und über die Gemini API für Entwickler in den unterstützten Regionen bereit. Das Modell kombiniert multimodale Eingaben, Reasoning und Sprachverständnis, um Text und Bilder mit einem einzigen Modell zu erzeugen.
OpenAIs agentische Coding-Anwendung Codex wird nun von GPT-5.5 betrieben, das auf NVIDIA GB200 NVL72 rack-scale Systemen laeuft. NVIDIA beschreibt den internen Einsatz bei mehr als 10.000 Mitarbeitenden sowie die Sicherheitsarchitektur und die langjaehrige Zusammenarbeit mit OpenAI.
Microsoft Research, Princeton University und die Universitat Politècnica de València stellen mit ADeLe ein Verfahren vor, das Aufgaben und Modelle entlang von 18 Kernfaehigkeiten bewertet. Damit sollen sich Modellverhalten auf neuen Aufgaben vorhersagen und Leistungsunterschiede anhand konkreter Anforderungsprofile erklaeren lassen.
Microsoft Research stellt mit AutoAdapt ein End-to-End-Framework für die Domain-Adaption von Large Language Models vor. Das System plant unter Vorgaben wie Genauigkeit, Latenz, Hardware, Datenschutz und Budget eine ausführbare Pipeline, wählt Verfahren wie RAG oder Fine-Tuning aus und optimiert Hyperparameter mit einer budgetbewussten Verfeinerungsschleife.
Microsoft-CTO Kevin Scott beschreibt große Sprachmodelle und generative KI als Treiber für Produktivität, Kreativität und wissenschaftliche Anwendungen. Er verweist zugleich auf die Bedeutung von Cloud-Infrastruktur, Skalierung und Responsible AI für Entwicklung und Einsatz dieser Systeme.