
Wrzesień 2025 r. Moduł 32 GB DDR5 kosztuje 80 dolarów, ok 280 zł w Polsce. Maj 2026 r. – za ten sam moduł trzeba już zapłacić 220 dol., czyli ok 800 zł u nas. Wzrost o 175 proc. W pół roku.
Złoto, w które tak bardzo lubi inwestować prezes polskiego NBP w tym samym czasie podrożało o kilkanaście procent. Ropa – będąca oczkiem w głowie całego świata ze względu na konflikt na Bliskim Wschodzie – kosztuje o 50 proc. więcej niż 6 miesięcy temu. Przy 175 proc. skoku cen RAM-u te wzrosty wyglądają wręcz niewinnie.
Jeśli zastanawiałeś się, dlaczego nowy laptop, telefon czy PC kosztuje nagle więcej niż rok temu, to masz odpowiedź. Jest nią AI. Ale nie w sposób, o którym się mówi.
Co się adekwatnie stało?
Żeby zrozumieć kryzys na rynku pamięci, trzeba przywołać jeden techniczny fakt. Bo nie do końca chodzi o pamięć w twoim komputerze czy telefonie. Każdy gigabajt pamięci HBM (High Bandwidth Memory) kluczowej dla rozwoju AI, czyli takiej, którą pakuje się do chipów AI Nvidii, zużywa trzykrotnie więcej powierzchni wafla krzemowego niż gigabajt zwykłej pamięci DDR5.
Czytaj także:
Producenci pamięci, czyli głównie: Samsung, SK Hynix, Micron, nie mają nieograniczonych mocy produkcyjnych. Wafle krzemowe są bowiem zasobem skończonym. I muszą zdecydować, co na nich produkują. HBM dla centrów danych AI przynosi marże wielokrotnie wyższe niż zwykły DDR5 dla laptopów i pecetów. Z punktu widzenia biznesowego decyzja o tym, co produkować jest więc oczywista.
Szef TeamGroup, jednego z największych producentów modułów pamięci, ostrzega wprost: normalizacja cen jest mało prawdopodobna przed okresem 2027 – 2028, gdy pojawi się nowa zdolność produkcyjna. Innymi słowy: to nie jest chwilowy skok cen. To strukturalna zmiana rynku, która potrwa jeszcze przynajmniej 2 lata.
Kto za to płaci?
Ceny komputerów PC mają wzrosnąć o 15 – 20 proc. w Q2 2026 r. Sam Dell, który specjalizuje się w sprzedaży komputerów dla firm, planuje podwyżki cen sprzętu o setki dolarów na sztuce. Z kolei Xiaomi szacuje, iż koszty DRAM na jeden telefon wzrosną o 25 proc., co przy telefonie za 500 dol. oznacza cenę bliższą 625 dol., jeżeli producent przerzuci koszty na klienta. A przerzuci. Zawsze przerzuca.
Czytaj także:
Jest w tym pewna szczególna ironia. Płacisz drożej za laptopa, bo Nvidia musi upchać terabajty HBM do swoich chipów AI. Płacisz drożej za telefona, bo centrum danych OpenAI, czy innego Google’a gdzieś w Wirginii potrzebuje więcej pamięci do obsługi modeli językowych. Płacisz drożej za wszystko z ekranem i pamięcią, bo przemysł AI wysysa zasoby, które przez dekady były przeznaczone dla ciebie.
I nie ma tu żadnego złoczyńcy do wskazania palcem. Samsung i SK Hynix robią dokładnie to, co robiłby każdy z nas: produkują to, na czym zarabiają więcej. Nvidia robi dokładnie to, co do niej należy: pakuje do chipów tyle HBM ile możliwe, bo to przynosi jej dominację rynkową i furę siana. Centra danych kupują tyle mocy obliczeniowej ile mogą, by nie wypaść z gry na najbardziej gorącym dziś polu konkurencyjnym – LLM. Rynek działa perfekcyjnie. Po prostu ty nie jesteś jego priorytetem.
Jest jedna firma, która na razie oddycha spokojnie
Apple ma masowe kontrakty negocjowane z wieloletnim wyprzedzeniem na chipy z serii A i M, co pozwala mu opóźnić publiczną reakcję cenową i uniknąć natychmiastowego bólu, który odczuwają inni producenci.
To jest właśnie wartość skali i siły negocjacyjnej. Apple kupuje tyle chipów naraz, iż może dyktować warunki i blokować ceny na lata do przodu. Samsung, Xiaomi, Lenovo nie mają tej siły. Ich klienci płacą już teraz.
Czytaj także:
Jest jeszcze jedna interesująca obserwacja. SK Hynix po raz pierwszy od 1992 r. wyprzedził Samsunga w przychodach z DRAM zdobywając 36 proc. rynku wobec 34 proc Samsunga. SK Hynix postawił wcześniej i mocniej właśnie na HBM. I wygrał. Samsung przespał moment i traci pozycję lidera po raz pierwszy od ponad 3 dekad.
Co będzie dalej?
Optymistyczny scenariusz zakłada nowe moce produkcyjne. TSMC, Samsung i Micron inwestują w rozbudowę fabryk, które zaczną działać w 2027/2028 r. i ceny powinny wrócić do rozsądnych poziomów.
Pesymistyczny, ale niestety bardziej realny scenariusz: popyt na HBM rośnie szybciej niż moce produkcyjne. Każda nowa generacja chipów AI potrzebuje więcej HBM niż poprzednia. Nvidia już zapowiedziała architekturę Rubin na 2027 r. ze znacząco większą liczbą HBM niż obecny Blackwell. jeżeli popyt rośnie szybciej niż podaż, to normalizacji cen nie będzie. Będzie nowy poziom równowagi, oczywiście dużo droższy.
Jest jednak jeszcze jeden scenariusz, o którym mówi się nieco mniej. Bańka AI pęknie
Inwestycje w centra danych zwolnią, popyt na HBM spadnie, producenci wrócą do wypluwania DDR5 dla konsumentów, ceny znormalizują się szybciej niż prognozowano.
Wprawdzie na razie nic nie wskazuje, żeby tak miało być, ale rynek pamięci przeżywał już wcześniej podobnie gwałtowne cykle. Kto pamięta czasy, gdy karty graficzne kosztowały trzykrotność ceny katalogowej, bo górnicy kryptowalut wykupili całą dostępną podaż? To się skończyło błyskawicznie. Szybciej niż wszyscy sądzili, choćby prezes Zondacrypto.
Czy AI to powtórzy? Nie wiem. Ale wiem jedno – płacisz dziś więcej za RAM nie dlatego, iż produkowanie pamięci stało się trudniejsze. Płacisz więcej, bo ktoś inny jest ważniejszym klientem niż ty. Smutne, prawda?
I to się tak gwałtownie nie zmieni. A może już choćby nigdy.







