Microsoft könnte zur Unterstützung seiner energiehungrigen KI auf Atomkraft setzen


Künstliche Intelligenz hat sich als kostspieliges Unterfangen erwiesen – nun ja, in Bezug auf Geld, aber KI erfordert enorme Mengen an Energie und Wasserverbrauch, um in großem Maßstab zu funktionieren. Das hat große Tech-Unternehmen wie Google und Microsoft nicht davon abgehalten, diese energiehungrige KI in praktisch jedes ihrer Endprodukte für Anwender und Unternehmen einzubauen. Big Daddy Microsoft hat versucht, seinen (von OpenAI unterstützten) Vorsprung im KI-Rattenrennen zu halten, und muss möglicherweise den Brennstab mit beiden Händen greifen, wenn es seine großen KI-Ambitionen fortsetzen will.
Und wenn wir Brennstab sagen, dann meinen wir das wörtlich. Microsoft hat am Montag eine Ausschreibung für einen Programmmanager für „Nukleartechnologie“ veröffentlicht. Wie CNBC zuerst berichtete, wird in der Stellenausschreibung ausdrücklich erwähnt, dass diese neue Initiative „Mikroreaktoren“ und „kleine modulare Reaktoren“ nutzen würde, um die von Microsoft Cloud und KI genutzten Rechenzentren zu betreiben. Was auch immer es ist, der Anwendungsbereich für Microsofts nukleare KI könnte „global“ sein, da Microsoft Azure-Rechenzentren in allen Teilen der Welt hat.
Microsoft lehnte es ab, sich zu Plänen für künftige Nuklearprojekte zu äußern. Stattdessen verwies das Unternehmen auf frühere Blog-Einträge über Nachhaltigkeitsinitiativen des Unternehmens. Es ist unklar, welche Pläne Microsoft für nuklear betriebene KI haben könnte. Die Position verweist darauf, dass der Nuklearprogramm-Manager eine „Roadmap für die Integration der Technologie“ erstellen würde, was auch die Auswahl von Partnern für die Entwicklung und Implementierung bedeuten würde, wie der Tech-Gigant die Kernenergie unterstützen würde.
Kleine modulare Reaktoren (Small Modular Reactors, SMR) sind eine vorgeschlagene Klasse von Reaktoren, die eine angeblich kleinere Version eines vollwertigen Kernkraftwerks mit einer geringeren Leistungskapazität sein sollen. Die Idee ist, dass sie an einem Ort gebaut und dann an einen anderen Standort verlegt werden können. Es gibt nur wenige Prototypen von SMR-Reaktoren, die in Ländern wie Russland und China eingesetzt werden, obwohl das U.S. Office of Nuclear Energy sein erstes SMR-Design erst im Januar dieses Jahres genehmigt hat.
Im Mai unterzeichnete Microsoft einen Stromabnahmevertrag mit dem Kernfusions-Startup Helion, der im Jahr 2028 in Kraft treten soll. Das ist etwas anderes als ein SMR, bei dem noch immer die Kernspaltung zur Stromerzeugung genutzt wird. Und obwohl es im vergangenen Jahr einige Erfolge bei der Kernfusion gab, sind wir von einer Energiewende noch weit entfernt.
Microsoft hat das letzte Jahr damit verbracht, generative KI in praktisch jedes seiner Softwareprodukte zu implementieren. Erst kürzlich hat das Unternehmen aus Redmond, Washington, seinen KI-Copiloten für Windows 11 angekündigt, der als eine Art virtueller Assistent auf dem Desktop fungieren soll. Aus Gerichtsdokumenten geht hervor, dass Microsoft nach Möglichkeiten gesucht hat, mehr KI-Funktionen auf seiner Cloud-Plattform Azure zu implementieren.
Doch der Betrieb dieser KI ist außerordentlich kostspielig, sogar noch kostspieliger als bei anderen Cloud-basierten Produkten. Im jüngsten Nachhaltigkeitsbericht von Microsoft wurde festgestellt, dass der Wasserverbrauch des Unternehmens im Vergleich zum Vorjahr um 30 % gestiegen ist, um seine KI-Supercomputer kühl zu halten. Microsoft hat Milliarden von Dollar in eine Partnerschaft mit dem ChatGPT-Hersteller OpenAI gesteckt, und das Redmonder Unternehmen ist nun gezwungen, den wachsenden Energiebedarf seines Partners zu decken und zu kühlen, um die neuesten Modelle von OpenAI zu trainieren. Einer aktuellen Studie zufolge verbrauchte das Training von GPT-3 genug Wasser, um den Kühlturm eines vollen Atomreaktors zu füllen.
Studien haben gezeigt, dass KI für enorme Mengen an Kohlenstoffemissionen verantwortlich ist, und das GPT-3-Modell von OpenAI war für mehr CO2-Emissionen verantwortlich als die meisten anderen großen Sprachmodelle. Das GPT-4-Modell des Unternehmens ist angeblich 1.000 Mal leistungsfähiger als GPT-3.5 und wurde mit fast vier Mal so vielen Daten trainiert. Der Betrieb eines größeren KI-Modells würde ein Vielfaches der Leistung kleinerer Modelle erfordern, und die KI-Unternehmen lassen nicht locker.

You must be logged in to post a comment Login
Leave a Reply
Leave a Reply
Du musst angemeldet sein, um einen Kommentar abzugeben.