Barron’s zitierte Daten der Boston Consulting Group und sagte, dass Rechenzentren bis 2030 7,5 % des gesamten verfügbaren Stroms in den USA verbrauchen werden. Rechenzentren, die für KI-Systeme gebaut werden, können Hunderte von Megawatt Strom pro Anlage verbrauchen, sodass das Stromversorgungssystem mit dem schnellen Wachstum der Anzahl von Rechenzentren nicht mehr Schritt halten kann.
Enormer Energiebedarf für den Betrieb von KI-Servern
Der Analyse zufolge wird sich der Energieverbrauch von Rechenzentren in den USA von 2022 bis 2030 von 126 auf 390 Terawattstunden erhöhen, was ausreichen würde, um 40 Millionen US-Haushalte zu versorgen.
Die 650 Group schätzt, dass sich die Anzahl der Serversysteme, die den KI-Bedarf decken, vom letzten Jahr bis 2028 versechsfachen wird, auf 6 Millionen Einheiten. Laut Gartner-Prognose wird der durchschnittliche Stromverbrauch eines Beschleunigerservers von 650 W auf 1.000 W steigen.
Der Energieverbrauch wird nicht nur durch die steigende Anzahl an Servern, sondern auch aufgrund der Rahmenbedingungen steigen. Bemühungen zur Optimierung der Energiekosten durch den Einsatz von KI im Bereich der Energieverbrauchskontrolle werden diesen Trend zwar etwas eindämmen, das Problem jedoch nicht vollständig lösen. Der Umstieg auf Flüssigkeitskühlung von Serversystemen wird in den meisten Fällen unumgänglich sein. Laut Super Micro können die Betriebskosten von Rechenzentren um mehr als 40 % gesenkt werden, wenn herkömmliche Luftkühlsysteme durch Flüssigkeitskühlung ersetzt werden.
Das Problem wird durch die ungleichmäßige Entwicklung des Energieversorgungsnetzes in der Region noch verschärft. Zudem ist es nicht überall möglich, den erzeugten Strom effizient an die Standorte großer Energieverbraucher zu transportieren. Experten zufolge erzeugen die USA zwar genügend Strom, um die Entwicklung von KI-Systemen zu unterstützen, es gebe jedoch Probleme mit dem Verteilungsnetz.
[Anzeige_2]
Quellenlink
Kommentar (0)