Microsoft-Podcast zu KI, Rechenzentren und Nachhaltigkeit

In der Podcast-Folge diskutieren Amy Luers, Leiterin fuer Sustainability Science and Innovation bei Microsoft, und der Optimierungsforscher Ishai Menache mit Doug Burger, wie KI im Zusammenhang mit Klima und Nachhaltigkeit zu betrachten ist. Dabei wird betont, dass sich die Wirkung von KI nicht auf die Infrastrukturfrage reduzieren laesst, sondern sowohl Belastungen als auch Moeglichkeiten umfasst. Zugleich soll zwischen Hype und belastbaren Daten unterschieden werden.

Luers beschreibt KI als einen Faktor, der den kuenftigen Klimapfad mitbestimmen koenne, zum Besseren oder Schlechteren. Zugleich haelt sie KI fuer notwendig, um die Klimakrise zu bewaeltigen. Aus Klimasicht komme es vor allem auf Treibhausgasemissionen an, nicht nur auf Energieverbrauch als solchen. Nach den im Gespraech genannten Werten verursacht der Energiesektor etwa 75 Prozent der globalen Emissionen. Rechenzentren stehen demnach Stand 2024 fuer weniger als 0,5 Prozent der globalen Emissionen und fuer rund 1,5 Prozent des weltweiten Stromverbrauchs.

Gleichzeitig wird auf das Wachstum der Rechenzentren verwiesen. Laut der im Podcast zitierten IEA koennte sich ihr Stromverbrauch bis 2035 verdoppeln. Auch dann wuerden Rechenzentren nach dieser Einschaetzung weiterhin fuer weniger als 1 Prozent der globalen Emissionen stehen. Luers betont allerdings, dass Projektionen wegen der schnellen Veraenderungen bei Nachfrage, Effizienz und Modellarten nur begrenzt belastbar sind.

Ein weiterer Punkt ist der Unterschied zwischen globaler und lokaler Wirkung. Global sei der Emissionsanteil von Rechenzentren klein, lokal seien sie jedoch stark konzentriert. In einzelnen Regionen kann das schnelle Wachstum daher Stromnetze belasten. Luers bezeichnet dies im Gespraech vor allem als Infrastrukturproblem: Strom muesse am richtigen Ort zur richtigen Zeit verfuegbar sein, moeglichst als sauber erzeugter Strom. Gleichzeitig steige der Strombedarf nicht nur wegen KI und Rechenzentren, sondern auch wegen breiterer Dekarbonisierung, etwa durch Elektromobilitaet und die Elektrifizierung weiterer Anwendungen.

Luers verweist in diesem Zusammenhang auf Microsofts im Januar angekuendigte community-first infrastructure initiative. Sie beschreibt den Anspruch, Rechenzentrumsentwicklung so zu gestalten, dass das schnelle Wachstum fuer betroffene Gemeinden nicht zu einem Netto-Nachteil wird. Genannt werden unter anderem Zusagen, die erforderlichen Stromkosten zu tragen, damit Rechenzentren vor Ort keine Preissteigerungen verursachen. Beim Wasser nennt sie neue Kuehlsysteme, die fuer cooling nahezu ohne Wasser auskommen sollen, sowie Auffuell- und Effizienzansaetze. Als Beispiel fuer moegliche KI-Unterstuetzung fuehrt sie die Erkennung undichter Wasserleitungen an.

Menache erlaeutert im Gespraech den Beitrag von Optimierung. Mathematical optimization beschreibt er als mathematischen Ansatz, um unter vielen Wahlmoeglichkeiten und Nebenbedingungen die besten Entscheidungen zu treffen. Dazu gehoeren Problemdefinition, Variablen, ein Ziel wie Kostenminimierung oder Umsatzmaximierung sowie Constraints. Als Beispiele nennt er Routenplanung, Field Service mit vielen Technikern und Work Orders sowie Anwendungen in Supply Chain und Cloud-Infrastruktur.

Vor diesem Hintergrund stellt Menache OptiMind vor. Das System wird als kleines Sprachmodell beschrieben, das speziell darauf trainiert wurde, Beschreibungen in natuerlicher Sprache in Optimierungsalgorithmen zu ueberfuehren. Ziel ist es, Optimierung fuer Personen ohne graduate-level Fachwissen in Operations Research oder Algorithmen zugaenglicher zu machen, indem Anforderungen, Ziele und Constraints in plain English formuliert und dann in eine mathematische Loesungsbeschreibung uebertragen werden.

Fuer bestehende Optimierungsarbeit innerhalb von Microsoft nennt Menache mehrere Beispiele mit Effizienzbezug und Nachhaltigkeitsbezug. Bei Intelligent Fulfillment koenne man neben Versandkosten auch Emissionen explizit in die Versandentscheidungen einbeziehen. In der Cloud nennt er virtual machine allocation mit dem Ziel, die packing density zu steigern, also Server moeglichst nahe an hoher Auslastung zu betreiben, um den Stromverbrauch pro nutzbarer Compute-Einheit zu senken. Als weiteres Beispiel nennt er rack placement im Rechenzentrum, bei dem Strom, Kuehlung und Platz beruecksichtigt werden. Durch Optimierung habe man die power fragmentation um 1 bis 2 Prozent reduziert. Im Gespraech wird dies als relevant fuer effizientere Nutzung bestehender Kapazitaeten beschrieben.

Die Folge zeichnet KI damit als Technologie mit gegenlaeufigen Wirkungen: Rechenzentren wachsen und koennen lokal Infrastrukturkonflikte verschaerfen, gleichzeitig kann KI helfen, komplexe Systeme in Energie, Wasser, Logistik und Cloud-Betrieb effizienter zu steuern. Die Diskussion bleibt dabei bei dem im Podcast mehrfach betonten Punkt, dass Auswirkungen datenbasiert und im gesamten Systemzusammenhang betrachtet werden muessen.

Quelle

Originalquelle: Microsoft Research

Recent Articles

spot_img

Related Stories

Leave A Reply

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Stay on op - Ge the daily news in your inbox