NVIDIA představila svůj nový rack-scale systém GB200 NVL72, který dle posledních informací přináší 10x výkonový skok pro modely umělé inteligence s architekturou mixture-of-experts (MoE). Tento systém, skládající se z 72 Blackwell GPU, dosahuje 1,4 exaflopu výkonu a 30 TB sdílené paměti, což zásadně mění způsob nasazení nejpokročilejších AI modelů.
Architektura MoE, která napodobuje lidský mozek tím, že aktivuje pouze relevantní „expertní“ komponenty pro každý úkol, se stala dominantním přístupem u nejlepších AI modelů. 80 % ze špičkových otevřených modelů využívají právě tuto architekturu, což zahrnuje například OpenAI’s gpt-oss-120B a DeepSeek-R1.
Hlavními výhodami nového systému jsou výrazně efektivnější zpracování a komunikace mezi experty, což výrazně zlepší ekonomiku nasazení AI v energeticky náročných datových centrech. Peter Salanki, CTO společnosti CoreWeave , uvedl, že jejich zákazníci využívají platformu pro nasazení MoE modelů, čímž budují sofistikovanější pracovní procesy.
Množství cloudových poskytovatelů, jako jsou Amazon Web Services a Google Cloud , již nasadili GB200 NVL72 pro trénink svých AI modelů. Paul Busch, vedoucí výzkumu ve společnosti DeepL, poznamenal, že efektivita během trénování a vyhodnocení se díky novému hardwaru významně zvyšuje.
Tento výkon přináší také 10x zvýšení příjmů za token, což má značný vliv na ekonomiku AI projektů. Lin Qiao, CEO Fireworks AI, vyzdvihl, že nový systém dělá obsluhu modelů MoE dramaticky efektivnější, což se pozitivně odráží na uživatelském zážitku a nákladech spojených s provozem.
Nový pokročilý systém GB200 NVL72 tedy nejen přetváří současnost umělé inteligence, ale i budoucnost rozvoje a nasazení nejmodernějších AI technologií.