Advertentie
Nvidia heeft zijn nieuwste generatie AI-gpu’s voor datacenters onthuld. Naast de Blackwell-gebaseerde B200 komt de GB200 Grace Blackwell Superchip aan bod, die op één bord twee B200-accelerators combineert met een Grace-cpu.
Alle producten zijn gebaseerd op B200, een gigantische chip met twee dies die via een interconnect met elkaar zijn verbonden. Elke chiplet bevat 104 miljard transistors en wordt aan vier hbm3e-stacks van 24 GB gekoppeld. Dit zorgt voor een totaal van 208 miljard transistors en 192 GB hmb3e met een bandbreedte van 8 TB/s per B200-gpu. Ter referentie: de Hopper-gebaseerde H100 bevat 80 miljard transistors.
De B200 wordt vervaardigd op TSMC’s 4NP-procedé, een geoptimaliseerde versie van 4N dat door de vorige generatie Hopper-chips wordt gebruikt. De twee chiplets worden dicht bijeen geplaatst en verbonden via een 10TB/s-interconnect, waardoor ze als een enkele Cuda-gpu werken. Hoe groot de chiplets precies zijn is niet duidelijk. Volgens Nvidia gaat het om “reticle-sized dies”, wat wijst op minstens 800 vierkante millimeter per stuk.
De fabrikant is karig op het gebied van concrete prestatievergelijkingen ten opzichte van de vorige generatie. In workloads op basis van INT8/FP8, FP16 en TF32 Tensor gaat het om een uplift van ongeveer 220%. In clusteropstellingen met meerdere accelerators moet Blackwell in staat zijn om vier keer zo snel te zijn in training, en tot 30 keer in inferentie. De GB200-systemen moeten tegelijkertijd 25 keer efficiënter zijn.