In 2025 worden de echte grenzen aan artificiële intelligentie duidelijk

De Blackwell-chip zal de ruggengraat vormen van de eerste datacenters die speciaal zijn gebouwd voor generatieve AI.

Superchips en supercomputers maken hun opwachting – en superveel hoofdpijn.

Vijftien jaar na zijn dood zal de naam van David Blackwell in 2025 op de lippen van elke technerd liggen. De halfgeleidergigant Nvidia heeft zijn nieuwste superchip vernoemd naar de wiskundige en speltheoreticus, die als eerste Afro-Amerikaan werd opgenomen in de National Academy of Sciences.

Het debuut van de Blackwell-chip, waarvan de volledige productie begin 2025 van start gaat, heeft tot adembenemende verwachtingen geleid. De chip zal de ruggengraat vormen van de eerste datacenters die speciaal zijn gebouwd voor het tijdperk van generatieve artificiële intelligentie (AI). De baas van Nvidia, Jensen Huang, noemt ze “AI-fabrieken”. Maar het zal ook de aandacht vestigen op de knelpunten – van het maken van chips tot de bouw van datacenters – die ontstaan door de vraag naar AI-gerelateerde rekenkracht.

Blackwell is een grafische verwerkingseenheid (GPU), het soort AI-chip dat van Nvidia een gigant van 3 miljard dollar heeft gemaakt. De superchip maakt deel uit van een nieuw Nvidia-platform dat enkele van de grootste AI-bedrijven, waaronder de ‘hyperscalers’ (zeer grote datacenters) van clouddiensten – Amazon, Microsoft en Google – zal aanzetten tot het bouwen van nieuwe serverparken voor generatieve-AI-berekeningen op enorme schaal, met ongekende energievereisten.

Hoger stroomverbruik

De vraag is enorm. Baron Fung van het onderzoeksbureau Dell’Oro schat dat de verkoop van servers voor generatieve-AI-taken in 2025 met meer dan driekwart zal stijgen ten opzichte van 2024, tot 147 miljard dollar, vooral dankzij de uitgaven van hyperscalers voor Blackwell GPU’s. Als gevolg daarvan stijgt ook de vraag naar energie. Lucas Beran, ook van Dell’Oro, zegt dat datacenters vroeger 100 tot 200 megawatt (MW) stroom nodig hadden, maar dat grote datacenters nu 300 tot 500 MW nodig hebben.

Het Internationaal Energieagentschap (IEA) schat dat in de komende twee jaar het wereldwijde stroomverbruik van datacenters meer dan verdubbeld kan zijn ten opzichte van 2022, tot 1.000 terawattuur in 2026. Dat is evenveel als het elektriciteitsverbruik van Japan. Het net uitbreiden is moeilijk. Ervoor zorgen dat de elektriciteit koolstofvrij is, is nog moeilijker. Er zijn plannen om een kerncentrale in Three Mile Island in Pennsylvania opnieuw op te starten om verschillende datacenters van Microsoft van stroom te voorzien, en Google heeft kernreactoren besteld bij de start-up Kairos Power.

Andere beperkingen

De nieuwe faciliteiten zullen gigantische supercomputers zijn. De zogenaamde Gigafactory of Compute van Elon Musk in Memphis zal naar verwachting 200.000 GPU’s bevatten. Maar de energie en de chips zijn niet de enige beperkingen voor artificiële intelligentie.

De nieuwe datacenters hebben niet alleen energie nodig om hun AI-servers van stroom te voorzien, maar ook om ze koel te houden.

De druk om grotere en betere generatieve-AI-modellen te bouwen kan ook spanningen veroorzaken in de toeleveringsketen van halfgeleiders. Nvidia heeft al technische problemen ondervonden bij de productie van zijn Blackwell-chips door TSMC, een Taiwanees bedrijf, waardoor de lancering vertraging heeft opgelopen. David Crawford van het adviesbureau Bain zegt dat als de vraag naar GPU’s groot blijft, er tekorten kunnen ontstaan aan geheugen met een hoge bandbreedte en een geavanceerde verpakking.

Op lokaal niveau protesteren milieugroepen in Memphis al dat het stroomverbruik van de AI-fabriek van Musk nadelig zal zijn voor de lokale bevolking. Het IEA meldt dat sommige landen, zoals Nederland, de bouw van datacenters aan banden hebben gelegd vanwege de beperkingen van het elektriciteitsnet. Sommige techbedrijven proberen de druk op het elektriciteitsnet te verlichten door ter plekke generatoren te plaatsen, maar die worden vaak op aardgas gestookt, waardoor de koolstofuitstoot toeneemt en de regelgeving dus kritischer wordt.

De nieuwe datacenters hebben niet alleen energie nodig om hun AI-servers van stroom te voorzien, maar ook om ze koel te houden. Systemen die rond Blackwell GPU’s worden gebouwd, zullen afhankelijk zijn van vloeistofkoeling met een gesloten lus – een techniek waarnaar de vraag het komende jaar naar verwachting zal toenemen en die de meer traditionele luchtkoeling zal vervangen. Zulke veranderingen vereisen meer dan alleen een vernieuwing van verouderde systemen.

China

Sommige landen hebben minder obstakels bij het bouwen van generatieve-AI-infrastructuur. Het centrale planningssysteem in China bespaart het land bijvoorbeeld problemen bij het samenbrengen van serverfarms, energiecentrales en bouwvakkers. China heeft echter geen toegang tot de best presterende GPU’s van Nvidia vanwege Amerikaanse handelsbeperkingen. Noch het Westen noch het Oosten zal het gemakkelijk vinden om de volgende golf van generatieve AI te bouwen.

Partner Content