Bedrijf achter ChatGPT verbuikt evenveel energie als New York en San Diego bij elkaar

zaterdag, 11 oktober 2025 (18:03) - FHM

In dit artikel:

Je draait thuis alle apparaten aan en denkt dat dat veel energie kost, maar de infrastructuur achter ChatGPT vreet nog veel meer stroom. Recente rapporten zeggen dat OpenAI, samen met Nvidia, datacenters plant die tot ongeveer 10 gigawatt kunnen verbruiken, met extra projecten die dat totaal naar zo’n 17 gigawatt brengen — ongeveer gelijk aan het gecombineerde energieverbruik van New York City en San Diego.

Dat is niet alleen abstracte techniek: elke query, elke training van een groot taalmodel en elk moment dat zo’n model wordt ingezet vraagt fysieke elektriciteit, koeling en netwerkcapaciteit. Critici waarschuwen dat zulke schaalgrootte ernstige gevolgen heeft voor netbelasting, CO₂-uitstoot, watergebruik voor koeling en lokale infrastructuur als de energie nog grotendeels uit fossiele bronnen komt.

OpenAI erkent dat de energievraag groot en groeiend is en wijst op efficiëntere hardware, datacenters op hernieuwbare energie en slimmere koelsystemen als manieren om de voetafdruk te verkleinen. Voorbij de slimme antwoorden zit dus een omvangrijke, fysieke voetafdruk — een uitdaging die zowel technologische vernieuwing als beleid en duurzame energieopwekking vereist om echt beheersbaar te worden.