Nvidias nya AI-chip, H200, kan generera texter och bilder dubbelt så snabbt som H100
Nvidia, en framstående aktör på marknaden för AI-chip, har tillkännagivit en uppgradering av sitt flaggskeppschip och introducerar H200, som ersätter den nuvarande H100-modellen
Nvidia, en framstående aktör på marknaden för AI-chip, har tillkännagivit en uppgradering av sitt flaggskeppschip och introducerar H200, som ersätter den nuvarande H100-modellen. Denna förbättring, som rapporteras av Reuters, innebär en betydande ökning av minnet med hög bandbredd, en avgörande komponent som bestämmer chipets databehandlingskapacitet. H200 lanseras nästa år och kommer att finnas tillgänglig via stora teknikjättar som Amazon, Google och Oracle.
H200 har hela 141 gigabyte minne med hög bandbredd, vilket är en avsevärd ökning från de 80 gigabyte som finns i H100. Även om Nvidia inte har avslöjat vilka minnesleverantörer som kommer att användas för det nya chipet har Micron Technology uttryckt sin avsikt att bli en leverantör, och Nvidia har historiska band med koreanska SK Hynix, ett företag som nyligen noterade att AI-chip kan bidra till att öka försäljningen.
Nvidias dominans inom AI-chipsektorn är anmärkningsvärd, eftersom den driver system som OpenAI:s ChatGPT och andra generativa AI-tjänster. Det förbättrade minnet och den snabbare anslutningen till processorerna i H200 förväntas avsevärt påskynda svarstiden för sådana AI-tjänster.
Uppgraderingen påverkar även molntjänster, och Nvidia bekräftar att Amazon Web Services, Google Cloud, Microsoft Azure och Oracle Cloud Infrastructure, tillsammans med specialiserade AI-molnleverantörer som CoreWeave, Lambda och Vultr, kommer att vara bland de första att erbjuda tillgång till H200-chipen.