NVIDIA und Google Cloud bauen Infrastruktur für agentische und physische KI aus

NVIDIA und Google Cloud haben ihre seit mehr als einem Jahrzehnt bestehende Zusammenarbeit um neue Bausteine für agentische und physische KI erweitert. Vorgestellt wurden bei Google Cloud Next unter anderem neue A5X-Bare-Metal-Instanzen auf Basis von NVIDIA Vera Rubin, eine Preview von Google Gemini auf Google Distributed Cloud mit NVIDIA Blackwell und Blackwell Ultra GPUs, Confidential VMs mit NVIDIA Blackwell GPUs sowie agentische KI auf der Gemini Enterprise Agent Platform mit NVIDIA Nemotron Open Models und dem NVIDIA NeMo Framework.

Google kündigte A5X auf Basis von NVIDIA Vera Rubin NVL72 Rack-Scale-Systemen an. Laut Unternehmen ermöglicht die Co-Entwicklung über Chips, Systeme und Software hinweg bis zu zehnmal niedrigere Inference-Kosten pro Token und einen bis zu zehnmal höheren Token-Durchsatz pro Megawatt als die vorherige Generation. A5X nutzt NVIDIA ConnectX-9 SuperNICs in Verbindung mit Googles Netzwerk der nächsten Generation, Virgo, und soll in einem Single-Site-Cluster auf bis zu 80.000 NVIDIA Rubin GPUs sowie in einem Multisite-Cluster auf bis zu 960.000 NVIDIA Rubin GPUs skalieren.

Das Blackwell-Angebot von Google Cloud reicht laut NVIDIA von A4-VMs mit NVIDIA HGX B200 über Rack-Scale-A4X-VMs mit NVIDIA GB200 NVL72 und A4X Max mit NVIDIA GB300 NVL72 bis zu fraktionalen G4-VMs mit NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs. Kunden können damit Beschleunigung je nach Bedarf zwischen einem Achtel einer GPU, einem einzelnen Rack mit bis zu 72 Blackwell-GPUs und mehreren zusammengeschalteten NVL72-Racks wählen. Als Anwendungsfelder nennt der Text unter anderem Mixture-of-Experts-Reasoning, multimodale Inference, Datenverarbeitung sowie Simulationen für physische KI und Robotik.

Als Beispiele für die Nutzung der Infrastruktur nennt NVIDIA Thinking Machines Lab, das seine Tinker-API auf A4X Max VMs mit GB300 NVL72 für schnelleres Training skaliert, sowie OpenAI. OpenAI nutzt laut Text auf Google Cloud NVIDIA GB300 in A4X Max VMs und GB200 NVL72 in A4X VMs für groß angelegte Inference-Workloads, darunter für ChatGPT.

Für sensible Umgebungen sind Gemini-Modelle auf NVIDIA Blackwell- und Blackwell-Ultra-GPUs nun als Preview auf Google Distributed Cloud verfügbar. Damit sollen Kunden Googles Frontier-Modelle dort ausführen können, wo sich besonders sensible Daten befinden. NVIDIA Confidential Computing mit der Blackwell-Plattform soll dabei eine geschützte Umgebung bereitstellen, in der Prompts und Fine-Tuning-Daten verschlüsselt bleiben und nicht von unbefugten Parteien einschließlich der Infrastrukturbetreiber eingesehen oder verändert werden können.

In der Public Cloud bringt die Preview von Confidential G4 VMs mit NVIDIA RTX PRO 6000 Blackwell GPUs diese Schutzmechanismen in Multi-Tenant-Umgebungen. Laut Text ist dies das erste Confidential-Computing-Angebot für NVIDIA-Blackwell-GPUs in der Cloud und soll den Schutz von Prompts, Modellen und Daten ermöglichen, ohne Sicherheit oder Performance zu beeinträchtigen.

Für agentische KI ist die NVIDIA-Plattform auf Google Cloud laut NVIDIA für verschiedene Modellfamilien optimiert, darunter Gemini und Gemma von Google, NVIDIA Nemotron Open Models und weitere Open-Weight-Modelle. NVIDIA Nemotron 3 Super ist auf der Gemini Enterprise Agent Platform verfügbar und soll Entwicklern das Auffinden, Anpassen und Bereitstellen von für Reasoning und multimodale Aufgaben optimierten Modellen für agentische Workflows ermöglichen.

Google Cloud und NVIDIA stellen zudem auf der Gemini Enterprise Agent Platform Managed Training Clusters mit einer neuen Managed-Reinforcement-Learning-API bereit, die mit NVIDIA NeMo RL aufgebaut wurde. Sie soll RL-Training im großen Maßstab beschleunigen und zugleich Cluster-Größe, Fehlerbehebung und Job-Ausführung automatisieren. CrowdStrike nutzt nach Angaben des Textes offene Bibliotheken aus NVIDIA NeMo, darunter NeMo Data Designer, NeMo Automodel und NeMo Megatron Bridge, um synthetische Daten zu erzeugen und Nemotron sowie andere offene Large Language Models für domänenspezifische Cybersicherheit feinzujustieren. Diese Funktionen laufen auf Managed Training Clusters mit NVIDIA Blackwell GPUs.

Im Bereich industrielle und physische KI verweist NVIDIA auf offene Modelle, Bibliotheken und Frameworks auf Google Cloud. Lösungen von Cadence und Siemens Digital Industries Software sind demnach auf Google Cloud verfügbar und werden auf NVIDIA-AI-Infrastruktur beschleunigt. Sie sollen Design-, Engineering- und Fertigungsprozesse für Chips, autonome Fahrzeuge, Robotik, Luft- und Raumfahrtplattformen, schwere Maschinen und große Produktionssysteme unterstützen.

Mit NVIDIA-Omniverse-Bibliotheken und dem Open-Source-Robotik-Simulationsframework NVIDIA Isaac Sim auf dem Google Cloud Marketplace können Entwickler physikalisch genaue digitale Zwillinge und eigene Robotik-Simulationspipelines erstellen, um Roboter vor dem realen Einsatz zu trainieren, zu simulieren und zu validieren. NVIDIA NIM Microservices für Modelle wie NVIDIA Cosmos Reason 2 lassen sich auf Google Vertex AI und Google Kubernetes Engine bereitstellen. Als Einsatzfelder nennt der Text automatisierte Datenkuratierung und Annotation, fortgeschrittene Roboterplanung und -schlussfolgerung sowie intelligente Videoanalyse-Agenten für Echtzeit-Einblicke und Entscheidungen.

Als Nutzer der gemeinsam entwickelten Plattform nennt NVIDIA unter anderem Snap, Schrödinger und Salesforce. Snap verlagert laut Text Datenpipelines auf GPU-beschleunigtes Spark in Google Cloud, um die Kosten groß angelegter A/B-Tests zu senken. Schrödinger verkürzt demnach wochenlange Simulationen für die Wirkstoffforschung mit NVIDIA Accelerated Computing auf Google Cloud auf Stunden.

Im Startup-Bereich nennt der Beitrag CodeRabbit und Factory, die auf Google Cloud Modelle auf Basis von NVIDIA Nemotron für Code-Review und autonome Softwareentwicklungs-Agenten einsetzen. Aible, Mantis AI, Photoroom und Baseten entwickeln laut Text auf der Full-Stack-NVIDIA-Plattform auf Google Cloud Lösungen für Unternehmensdaten, Video Intelligence, generative Bilderstellung und Managed Inference. Mehr als 90.000 Entwickler seien in etwas mehr als einem Jahr Teil der gemeinsamen Entwickler-Community von NVIDIA und Google Cloud geworden.

Quelle

Originalquelle: NVIDIA Blog

Recent Articles

spot_img

Related Stories

Leave A Reply

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Stay on op - Ge the daily news in your inbox