Die ersten Bilder des James Webb Space Telescope (JWST) lieferten ab 2022 Datensätze im Terabyte-Maßstab und zeigten deutlich mehr weit entfernte Galaxien als erwartet. Das Team um Brant Robertson, Professor für Astronomie und Astrophysik an der University of California, Santa Cruz, untersucht mit diesen Beobachtungen, wie die frühesten Galaxien nach dem Urknall entstanden.
JWST beobachtet im Infrarot und erfasst Licht, das mehr als 13 Milliarden Jahre unterwegs war. In einzelnen Deep-Field-Aufnahmen sind Hunderttausende Galaxien enthalten. Nach Angaben Robertsons sind diese Datensätze zu groß und zu komplex, um sie manuell auszuwerten; selbst Expertenteams würden dafür Jahre brauchen, obwohl Ergebnisse in Tagen benötigt werden.
An der UC Santa Cruz wurde dafür eine Analysepipeline aufgebaut. KI-Modelle übernehmen Klassifikationsaufgaben, während GPUs nahezu alle Schritte beschleunigen, darunter Datenreduktion, Katalogerstellung, Anomalieerkennung und Simulation. Ein Teil der Berechnungen läuft auf dem campusinternen Lux-Cluster, der durch einen Zuschuss der National Science Foundation über 1,6 Millionen US-Dollar finanziert wurde. Größere GPU-Läufe werden auf Supercomputer der US-Regierung verlagert. Für die Modellentwicklung und Tests nutzt Robertson in seinem Büro zudem eine NVIDIA DGX Station.
Ein zentrales Werkzeug der Pipeline ist Morpheus, ein KI-System, das von Ryan Hausen in Zusammenarbeit mit Robertson entwickelt wurde. Es basiert auf Semantic Segmentation und wurde von früheren Galaxiendurchmusterungen auf die größeren und detaillierteren JWST-Bilder angepasst. Statt eine Galaxie als Ganzes zu klassifizieren, untersucht Morpheus jedes Pixel und trennt etwa einen sphäroidalen Bulge von der umgebenden Scheibe, auch wenn beides im selben Bild liegt.
In der großskaligen Anwendung auf JWST-Daten half Morpheus dabei, Ergebnisse sichtbar zu machen, die sich nur schwer mit bestehenden Modellen vereinbaren ließen. Dazu gehörten rotierende Scheibengalaxien, also Systeme mit Ähnlichkeit zur Milchstraße, die deutlich früher auftauchten als erwartet. Das frühe Universum galt zuvor als stark von Verschmelzungen und Störungen geprägt; Scheibengalaxien waren dort nicht erwartet worden. Laut Robertson wurde dieses Ergebnis inzwischen mehrfach unabhängig bestätigt.
Moderne Observatorien erzeugen nicht nur Bilder, sondern große Kataloge mit Merkmalen wie Helligkeit, Farbe, Masse, Form und Bewegung. Die Gruppe entwickelte dafür mit GalaxyFriends ein Werkzeug, das knapp 90.000 Galaxien in Ähnlichkeits-Nachbarschaften organisiert. So lassen sich verwandte Objekte gemeinsam durchsuchen, seltene Fälle isolieren und Muster erkennen, deren Sichtung sonst Jahre dauern könnte.
Die Arbeitsgruppe versteht sich dabei auch als Aufbereitungsstelle für Rohbeobachtungen. Sie wandelt Beobachtungen in strukturierte Datensätze um, die von Astrophysikern weltweit genutzt werden können. Nach Angaben des Teams werden diese Daten öffentlich bereitgestellt; insgesamt umfasst die Veröffentlichung fast 500.000 Galaxien über die gesamte Geschichte des Universums.
Ein weiterer Schwerpunkt ist die Vorbereitung auf kommende Himmelsdurchmusterungen vom Boden aus. Das Vera C. Rubin Observatory in Chile soll den gesamten Südhimmel alle paar Nächte erfassen und dabei etwa 20 Terabyte Rohdaten pro Nacht erzeugen. Weil seine Bilder durch die Erdatmosphäre verzerrt werden, trainiert Robertsons Gruppe KI-Modelle auf weltraumbasierten Daten und wendet sie anschließend auf bodengebundene Bilder an, um atmosphärische Unschärfen zu korrigieren und feinere Details wiederherzustellen. Der Ansatz ist konzeptionell mit NVIDIA DLSS verwandt, das Bilder per KI in höherer Auflösung rekonstruiert.
Der Artikel nennt außerdem weitere kommende Observatorien wie das Nancy Grace Roman Space Telescope und das vorgeschlagene Habitable Worlds Observatory. Mit wachsendem Umfang und steigender Qualität astronomischer Daten werde die rechnergestützte Auswertung zur Grundvoraussetzung. GPUs kommen dabei nicht nur bei der Analyse von Beobachtungen zum Einsatz, sondern auch bei großskaligen Simulationen des Universums, die mit Teleskopdaten verglichen werden. Beobachtungen informieren die Theorie, Simulationen prüfen sie, und die Ergebnisse fließen zurück in die nächste Beobachtungsplanung.
