Micron 9550 zapewnia światowej klasy wydajność w zakresie obciążeń AI i energooszczędność:
W porównaniu z innymi ofertami branżowymi, dysk SSD 9550 zapewnia do 34% wyższą przepustowość dla NVIDIA Magnum IO GPUDirect (GDS) i do 33% krótszy czas realizacji zadań w szkoleniu grafowej sieci neuronowej (GNN) z pamięcią Big Accelerator Memory (BaM). Dysk SSD Micron 9550 oszczędza energię i ustanawia nowe standardy zrównoważonego rozwoju, zużywając o 81% mniej energii SSD na 1 przesłany 1 TB w porównaniu z innymi ofertami dysków SSD z NVIDIA Magnum IO GDS i do 43% niższą mocą dysku SSD podczas treningu GNN z BaM.
„Produkty pamięci i pamięci masowej firmy Micron odgrywają kluczową rolę w spełnianiu rosnących wymagań wymagających obciążeń AI, od centrum danych po brzeg” – powiedział Jeremy Werner, wiceprezes korporacyjny i dyrektor generalny jednostki biznesowej Storage w Micron. „Dzięki integracji dysku SSD Micron 9550 w GB200 NVL72 firmy serwerowe mogą zintegrować wysokowydajne, energooszczędne rozwiązanie pamięci masowej dla centrów danych Gen 5 ze swoimi systemami serwerów AI”.
„Ultraszybka i energooszczędna pamięć masowa NVMe ma najważniejsze znaczenie dla konstrukcji NVIDIA GB200 NVL72 przeznaczonej do montażu w szafie” – powiedział Keith Morris, wiceprezes ds. zarządzania produktami w firmie NVIDIA. „Nasi partnerzy mogą zintegrować dysk SSD Micron 9550 z ich systemami opartymi na architekturze referencyjnej GB200 NVL72, aby zapewnić wyższą wydajność i efektywność.”
Oprócz dysków SSD Micron 9550 PRO PCIe Gen 5 3,84 TB, 7,68 TB i 15,36 TB E1.S, na tej samej liście NVIDIA RVL znajdują się również dyski SSD Micron 7450 PRO 3,84 TB E1.S i 1,92 TB M.2. Micron ściśle współpracuje z serwerami ODM i producentami OEM, aby zakwalifikować dyski SSD Micron 9550 i 7450 do ich rozwiązań NVIDIA GB200 NVL72.
Układ NVIDIA GB200 Grace Blackwell Superchip będzie również dostarczany z pamięcią LPDDR5X firmy Micron, aby zapewnić unikalne połączenie dużej pojemności, niskiego zużycia energii i ulepszonych funkcji RAS (niezawodność, dostępność i łatwość serwisowania) dla infrastruktury serwerów AI.