
Google introduceert AI Hypercomputer voor ‘grenzeloze AI-rekenkracht’

Internetreus Google heeft tijdens zijn Next’25-event zijn AI Hypercomputer onthuld. Het gaat om een geavanceerd supercomputersysteem dat speciaal is ontworpen om AI-implementaties te vereenvoudigen, prestaties te verbeteren en kosten te optimaliseren.
De rekenkracht van de AI Hypercomputer wordt onder meer geleverd door Ironwood TPU’s. Deze zevende generatie TPU (Tensor Processing Unit) van Google is de grootste en krachtigste tot nu toe, en volgens de internetgigant tien keer beter ten opzichte van de vorige high-performance TPU.
42,5 ExaFLOPS
Met meer dan 9.000 chips per pod levert Ironwood 42,5 ExaFLOPS aan rekenkracht per pod. Volgens Google is het systeem daarmee 24 keer krachtiger dan de snelste supercomputer van dit moment – toch in elk geval als het aankomt op AI-rekenkracht (*). Dat moet volgens de techreus meer dan volstaan om tegemoet te komen aan de exponentieel groeiende eisen van de meest geavanceerde denkmodellen, zoals Gemini 2.5.
De configuratie komt met uitgebreide GPU-opties. Denk daarbij aan AI-hardware als de A4 en A4X VM’s aangedreven door Nvidia B200 en GB200 GPU’s. Google zal naar eigen zeggen ook de eerste cloudprovider zijn die Nvidia’s volgende generatie Vera Rubin GPU’s aanbiedt (vernoemd overigens naar een Amerikaanse astronome).
Google Distributed Cloud
Een andere aankondiging had betrekking op Google Distributed Cloud (GDC), dat de modellen van Google naar lokale (on-premise) omgevingen brengt. ‘We werken samen met Nvidia om Gemini beschikbaar te maken op hun Blackwell-systemen, met Dell als belangrijke partner. Zo kan Gemini lokaal worden ingezet, zowel in afgesloten (air-gapped) als verbonden omgevingen’, luidt het.
(*) De snelheid van Top500-supercomputers en systemen voor AI-supercomputing wordt op een andere manier vastgesteld, waardoor rechtstreeks vergelijken lastig is. Bij de eerste categorie gaat het om 64-bit Floating Point-berekeningen (FP64) via Linpack benchmarks. Bij AI-supercomputing, zoals de Ironwood TPU’s van Google, hebben we het over FP8-berekeningen (of soms zelfs FP4). Die zijn minder belastend voor dergelijke compute infrastructuur (die bedoeld is om efficiënt AI te trainen) en niet geschikt voor rekenopdrachten waar de Top500-systemen in uitblinken, zoals weersvoorspellingen of -simulaties en wetenschappelijk onderzoek.
(Met dank aan lezer Wesley Wienen voor deze verduidelijking.)
Fout opgemerkt of meer nieuws? Meld het hier