Was ist eigentlich eine KI? Nichts anderes als ein hochentwickeltes Computerprogramm. Die bekanntesten KIs wie OpenAIs ChatGPT oder Googles Gemini beruhen auf riesigen Datenmengen. Doch auch wenn der Begriff "Cloud" es oft anders vermuten lässt, liegen sämtliche dieser Daten auf physischen Servern in großen Serverräumen rund um den Globus und schweben nicht einfach „in den Wolken“. Entsprechend hoch sind die Hardwareanforderungen an künstliche Intelligenz. Nicht für die einzelnen Nutzerinnen und Nutzer, aber für die Entwickler, Anbieter und Zulieferer solcher Technologien. Doch wie werden sich die Hardwareanforderungen in Zukunft entwickeln und was bedeutet das für Unternehmen, die Programme für die Medizintechnik entwickeln?
Massiver Stromverbrauch durch KI – Tendenz steigend
Laut John Pettigrew, Vorstandsvorsitzender des britischen Übertragungsnetzbetreibers National Grid, könnte sich der Stromverbrauch der für künstliche Intelligenz notwendigen Rechenzentren in den nächsten zehn Jahren versechsfachen. "Das künftige Wachstum grundlegender Technologien wie künstliche Intelligenz und Quantencomputer wird eine größere und energieintensivere Computerinfrastruktur erfordern", so Pettigrew gegenüber der BBC.
Eine Untersuchung des Wirtschaftsforschungsinstitutes prognos ergab eine Steigerung des Stromverbrauchs für den Bereich „Batteriefabriken und Rechenzentren“ bis zum Jahr 2030 um 13 TWh (Terrawattstunden) gegenüber 2018. Interessant: Durch die Zusammenlegung von Rechenzentren und die Nutzung effektiverer Hard- und Software könne man bei Rechenzentren sogar einen leichten Rückgang im Stromverbrauch erreichen, wenn man sie unabhängig von Batteriefabriken betrachtet.
Allerdings sind viele dieser Einschätzungen laut Expertinnen und Experten eher spekulativ. Denn die großen Tech-Unternehmen wie Google, Apple und Microsoft halten ihre technischen Daten geheim – und damit auch ihre genaue Rechenleistung und ihren Stromverbrauch. Doch einige Hinweise geben Grund zur Sorge: Analysiert man die Menge an für KI nutzbare Rechenleistung, die alleine durch Mikrochips von Nvidia erreicht werden könnte, kommt man auf einen Energieverbrauch von 85 bis 134 TWh. "Was den Stromverbrauch anbelangt, so entspricht dies der Größe eines Landes wie den Niederlanden. Es geht um ein halbes Prozent unseres gesamten weltweiten Stromverbrauchs", sagt Alex de Vries von der Amsterdam School of Business and Economics. Seine Empfehlung: KI solle nur dann genutzt werden, wenn sie wirklich benötigt wird.
Kate Crawford, Professorin für Künstliche Intelligenz an der University of Southern California in Los Angeles, fügt hinzu: "Diese energieintensiven Systeme verbrauchen enorme Mengen an Strom und Energie, aber auch enorme Mengen an Wasser zur Kühlung dieser gigantischen KI-Supercomputer. Wir haben es also mit einer enormen Rohstoffindustrie für das 21. Jahrhundert zu tun."
Ein weiteres Problem: Die Energieinfrastruktur in vielen Ländern Europas stammt noch aus der Zeit nach dem Zweiten Weltkrieg und ist für zukünftige Anforderungen kaum bis gar nicht ausgelegt. Allein in Deutschland erfordere die angestrebte Klimaneutralität Investitionen in Höhe von 1,1 Billionen Euro in das Stromnetz, so eine Auswertung des Handelsblatt Research Institute (HRI).