SK hynix prezentuje rozwiązania pamięci CXL, które napędzają erę sztucznej inteligencji na CXL DevCon 2024

cyberfeed.pl 2 tygodni temu



Firma SK hynix wzięła udział w pierwszej w historii konferencji Compute Express Link Consortium Developers Conference (CXL DevCon), która odbyła się w Santa Clara w Kalifornii w dniach 30 kwietnia–1 maja. Organizatorem była grupa ponad 240 światowych firm produkujących półprzewodniki, znana jako konsorcjum CXL, CXL DevCon W roku 2024 większość członków konsorcjum mogła zaprezentować swoje najnowsze technologie i wyniki badań.

CXL to technologia, która ujednolica interfejsy różnych urządzeń w systemie, takich jak pamięć półprzewodnikowa, pamięć masowa i układy logiczne. Ponieważ może zwiększyć przepustowość systemu i wydajność przetwarzania, CXL przyciąga uwagę jako kluczowa technologia w erze sztucznej inteligencji, w której niezbędna jest wysoka wydajność i pojemność. Pod hasłem „Pamięć, siła sztucznej inteligencji” firma SK hynix zaprezentowała na konferencji gamę produktów CXL, które mają wzmocnić wiodącą pozycję firmy w technologii pamięci AI.

Podczas demonstracji wydajności moduł pamięci CXL o podwójnej szybkości transmisji danych 5 (CMM-DDR5) zwiększył przepustowość systemu choćby o 50% i pojemność choćby o 100% w porównaniu do systemów wyposażonych wyłącznie w pamięć DDR5 DRAM. Ponadto firma SK hynix podkreśliła zalety systemu obsługującego pamięć CMM-DDR5, zwanego zestawem programistycznym pamięci heterogenicznej (HMSDK). Po wyposażeniu w systemy zarówno z modułami CMM-DDR5, jak i standardowymi modułami DRAM, HMSDK może znacząco zwiększyć możliwości systemu poprzez przeniesienie danych do odpowiedniego urządzenia pamięci w oparciu o częstotliwość użytkowania.

SK hynix zaprezentowało także Niagarę 2.0, rozwiązanie, które łączy wiele pamięci CXL w celu umożliwienia wielu hostom, takim jak procesory i karty graficzne, optymalnego dzielenia się swoją pojemnością. Eliminuje to wykorzystanie bezczynnej pamięci, jednocześnie zmniejszając zużycie energii.

W porównaniu z poprzednią generacją Niagara 1.0, która umożliwiała systemom jedynie dzielenie się pojemnością między sobą, Niagara 2.0 umożliwia także udostępnianie danych. To z kolei zmniejsza nieefektywność, taką jak nadmiarowe przetwarzanie danych, a tym samym poprawia ogólną wydajność systemu. W rezultacie oczekuje się, iż te produkty CXL będą w przyszłości wykorzystywane w systemach sztucznej inteligencji i obliczeniach o wysokiej wydajności (HPC).

Podczas sesji prezentacyjnej na konferencji wybitna inżynier SK hynix, Wonha Choi z zespołu Next-Gen Memory & Storage, wygłosiła wykład zatytułowany „Włączanie modułu pamięci CXL, odkrywanie przypadków użycia rozszerzenia pamięci i nie tylko”. Prezentacja obejmowała tło przyjęcia CXL, aż po komponenty technologii, przypadki badawcze i wydajność, a także przewidywane zastosowania w przyszłości.

Po udziale w CXL DevCon 2024 firma SK hynix planuje wzmocnić swoją wiodącą pozycję w zakresie pamięci AI poprzez rozwój technologii CXL w swojej rosnącej ofercie produktów.



Source link

Idź do oryginalnego materiału