Podczas SK AI Summit 2024, który odbył się w dniach 4–5 listopada w centrum konferencyjnym COEX w Seulu, firma SK hynix pokazała nowy, największy na świecie układ pamięci HBM (High Bandwidth Memory) o pojemności 48 GB. To przełomowe osiągnięcie, będące efektem rozwoju technologii HBM3E, jest kluczowym elementem strategii mającej na celu umocnienie pozycji firmy jako czołowego dostawcy rozwiązań dla sztucznej inteligencji.
Wydarzenie, zorganizowane pod hasłem „AI Together, AI Tomorrow”, skupiło liderów światowego rynku technologii sztucznej inteligencji, którzy dyskutowali nad przyszłością sztucznej inteligencji ogólnej (AGI) oraz sposobami wzmacniania globalnego ekosystemu AI. W szczycie uczestniczyli kluczowi przedstawiciele branży, w tym przewodniczący SK Group Chey Tae-won, prezes i CEO SK hynix Kwak Noh-Jung oraz prezes OpenAI Greg Brockman.
Nowa era pamięci dla sztucznej inteligencji
Podczas przemówienia otwierającego, przewodniczący Chey Tae-won podkreślił, iż rozwój AI wymaga współpracy wielu podmiotów.
AI jest na wczesnym etapie, pełna nieznanych wyzwań. Nasza globalna firma współpracuje z najlepszymi partnerami w dziedzinie technologii, aby przyspieszyć innowacje w AI — mówił Chey.
CEO SK hynix, Kwak Noh-Jung, w trakcie swojego wystąpienia „Next AI Memory: Hardware to Everywhere” ogłosił rozwój 16-warstwowej pamięci HBM3E o pojemności 48 GB, wykorzystując zaawansowaną technologię MR-MUF, która zapewnia stabilność oraz wydajność cieplną przy stosie czipów o 40% cieńszych niż standardowe. W planach firmy jest komercjalizacja HBM3E w 2025 roku, co ma znacząco zwiększyć efektywność uczenia i przetwarzania w AI o odpowiednio 18% i 32% w porównaniu z poprzednim modelem.
Rozwój przyszłych rozwiązań SK hynix
Kwak przedstawił również plany firmy, obejmujące trzy najważniejsze obszary: „World First” (pierwsze na świecie produkty produkowane na dużą skalę), „Beyond Best” (produkty nowej generacji o wysokiej wydajności) oraz „Optimal Innovation” (systemy zoptymalizowane dla ery AI). W ramach tych planów, SK hynix pracuje nad kolejnymi generacjami HBM4 i UFS 5.0 oraz zamierza wdrożyć specjalistyczne rozwiązania, takie jak HBM i CXL zoptymalizowane pod kątem AI.
Firma zapowiedziała także rozwój technologii HBM4, współpracując z jedną z czołowych fabryk półprzewodników na świecie. Celem tej współpracy jest podniesienie wydajności bazowych układów przy jednoczesnym zmniejszeniu zużycia energii, co ma jeszcze bardziej umocnić pozycję SK hynix jako lidera rynku HBM.
Podczas konferencji, wysokiej rangi przedstawiciele SK hynix podzielili się spostrzeżeniami na temat trendów w dziedzinie AI i rozwiązań w dziedzinie pamięci. Munphil Park, kierujący działem inżynierii HBM, oraz prof. Sungjoo Yoo z Uniwersytetu Narodowego w Seulu omówili przyszłość procesorów wspomagających AI, podkreślając znaczenie współpracy między klientami, producentami półprzewodników i dostawcami pamięci.
Pokaz innowacyjnych rozwiązań pamięci dla AI
Podczas szczytu firma SK Group prowadziła stoisko z najnowszymi produktami dla AI, w tym HBM3E, DDR5 MCR DIMM oraz CMM-DDR5. Szczególne zainteresowanie wzbudziły rozwiązania takie jak AiMX – akcelerator dla AI, który dzięki pamięci GDDR6-AiM może jednocześnie wykonywać operacje przechowywania danych i obliczeń.
Odwiedzający mogli również zapoznać się z najnowszymi rozwiązaniami opartymi na AI, które wspierają przemysł motoryzacyjny i centra danych, a także nowe narzędzia przewidujące jakość materiałów przy pomocy sztucznej inteligencji.
Oferujemy pełne spektrum pamięci dla AI, które wytyczają drogę dla przyszłych innowacji — podsumował Kwak, podkreślając ambicje SK hynix na rynku przyszłości AI.
Źródło: Informacja prasowa