Samsung dostarcza najdroższą pamięć AI, jaką kiedykolwiek zamówiła Nvidia, ponieważ HBM4 przekracza najważniejsze specyfikacje

7 godzin temu
Stosy HBM4 nowej generacji przewyższają specyfikacje JEDEC i Nvidia z prędkością do 13 Gb/s i przepustowością 3,3 TB/s, zapewniając jednocześnie wyższą efektywność energetyczną, lepsze adekwatności termiczne i do 36 GB pojemności na 12-warstwowy stos. Jest to jednak najdroższa pamięć, jaką Nvidia kiedykolwiek zamówiła dla kart centrum danych AI.
Idź do oryginalnego materiału