Podczas konferencji GTC 2025 SK hynix zaprezentował 12-warstwową pamięć HBM3E oraz SOCAMM, nowy standard dla serwerów AI. Nowe moduły zapewnią 60% wyższą wydajność i ponad 2 TB/s przepustowości, wspierając rozwój nowej generacji AI. SK hynix ogłosił również, iż masowa produkcja HBM4 ruszy w drugiej połowie 2025 roku, a technologia ta znajdzie zastosowanie w przyszłych układach NVIDIA Rubin.