OpenAI Codex mit GPT-5.5 laeuft auf NVIDIA-GB200-NVL72-Systemen

Codex, OpenAIs agentische Coding-Anwendung, wird jetzt von GPT-5.5 betrieben, dem aktuellen Frontier-Modell von OpenAI, das auf NVIDIA GB200 NVL72 rack-scale Systemen laeuft. Nach Angaben von NVIDIA nutzen bereits mehr als 10.000 Mitarbeitende aus Bereichen wie Engineering, Produkt, Legal, Marketing, Finance, Sales, HR, Operations und Developer Programs Codex mit GPT-5.5.

NVIDIA schreibt, dass Ingenieurteams seit einigen Wochen Zugriff auf GPT-5.5 ueber die Codex-App haben und dabei messbare Verbesserungen sehen. Genannt werden kuerzere Debugging-Zyklen, schnelleres Experimentieren in komplexen Multi-File-Codebasen sowie die Umsetzung von End-to-End-Features aus Natural-Language-Prompts mit hoeherer Zuverlaessigkeit und weniger unproduktiven Schleifen als bei frueheren Modellen.

Als infrastrukturelle Grundlage nennt NVIDIA GB200 NVL72. Gegenueber Systemen der vorherigen Generation soll die Plattform 35-fach niedrigere Kosten pro Million Tokens und einen 50-fach hoeheren Token-Durchsatz pro Sekunde und Megawatt erreichen. NVIDIA verbindet diese Werte mit der Aussage, dass Inference fuer Frontier-Modelle damit auf Unternehmensebene wirtschaftlich werde.

Bereitstellung in Unternehmensumgebungen

Fuer den Einsatz in sicheren Unternehmensumgebungen unterstuetzt die Codex-App laut NVIDIA Remote-SSH-Verbindungen zu freigegebenen Cloud-VMs. Dadurch koennen Agenten mit echten Unternehmensdaten arbeiten, ohne diese nach aussen offenzulegen. NVIDIA IT hat dafuer Cloud-VMs fuer Mitarbeitende ausgerollt, sodass jeder Agent in einer eigenen dedizierten Sandbox arbeiten kann.

Diese Architektur soll maximale Sicherheit und Auditierbarkeit ermoeglichen. Die Steuerung des in der Cloud-VM laufenden Codex-Agenten erfolgt ueber eine vertraute Benutzeroberflaeche. NVIDIA nennt zudem eine Zero-Data-Retention-Policy. Der Zugriff auf Produktionssysteme erfolge mit Read-only-Berechtigungen ueber Command-Line-Interfaces und Skills, also mit demselben agentischen Toolkit, das NVIDIA fuer unternehmensweite Automatisierungs-Workflows verwendet.

Zusammenarbeit von NVIDIA und OpenAI

NVIDIA ordnet den Start von GPT-5.5 und den Rollout von Codex in eine mehr als zehnjaehrige Zusammenarbeit mit OpenAI ein. Als Ausgangspunkt nennt das Unternehmen das Jahr 2016, als Jensen Huang den ersten NVIDIA DGX-1 AI-Supercomputer an den OpenAI-Standort in San Francisco uebergab.

Seitdem arbeiteten beide Unternehmen laut NVIDIA ueber den gesamten KI-Stack hinweg zusammen. NVIDIA sei zum Start von OpenAIs gpt-oss Open-Weight-Modell ein Day-zero-Partner gewesen und habe Modellgewichte fuer NVIDIA TensorRT-LLM sowie fuer Oekosystem-Frameworks wie vLLM und Ollama optimiert.

Weiter heisst es, OpenAI habe zugesagt, fuer seine naechste Generation von KI-Infrastruktur mehr als 10 Gigawatt an NVIDIA-Systemen einzusetzen. Dieses Buildout soll in den kommenden Jahren Millionen NVIDIA-GPUs als Basis fuer Training und Inference von OpenAI-Modellen umfassen.

Zudem beschreibt NVIDIA die Beziehung als fruehe Silicon- und Codesign-Partnerschaft. OpenAI liefere Rueckmeldungen fuer NVIDIAs Hardware-Roadmap und erhalte im Gegenzug fruehen Zugang zu neuen Architekturen. Als konkreten Meilenstein nennt NVIDIA die gemeinsame Inbetriebnahme des ersten GB200 NVL72-Clusters mit 100.000 GPUs. Dieser habe mehrere gross angelegte Trainingslaeufe abgeschlossen und einen neuen Benchmark fuer Systemzuverlaessigkeit auf Frontier-Skala gesetzt.

GPT-5.5 wird von NVIDIA als Ergebnis dieser Infrastruktur im produktiven Einsatz beschrieben. NVIDIA verweist fuer weitere Informationen zusaetzlich auf die Ankuendigung von OpenAI.

Quelle

Originalquelle: NVIDIA Blog

Recent Articles

spot_img

Related Stories

Leave A Reply

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Stay on op - Ge the daily news in your inbox