AMD wprowadza przełom w dziedzinie sztucznej inteligencji na komputerach osobistych. Dzięki najnowszej aktualizacji sterowników, użytkownicy PC mogą teraz uruchamiać lokalnie ogromne modele językowe (LLM), o wielkości choćby 128 miliardów parametrów – co jeszcze do niedawna było domeną wyłącznie superkomputerów i chmury.
Nowa wersja sterownika Adrenalin Edition 25.8.1 otwiera pełne możliwości układów APU z serii Strix Halo i Strix Point, które korzystają z architektury XDNA – specjalnie zaprojektowanej do obsługi przetwarzania AI. Dzięki funkcji Variable Graphics Memory, użytkownicy mogą przydzielić choćby 96 GB pamięci graficznej z RAM do zintegrowanego układu graficznego (iGPU), co pozwala na uruchamianie złożonych modeli, takich jak Llama 4 Scout od Meta.
Choć wspomniany model Llama wykorzystuje architekturę MoE (Mixture of Experts) i aktywnie używa jedynie 17 miliardów parametrów, to umożliwia już sensowne wykorzystanie jako osobisty asystent AI – działający w pełni lokalnie, bez potrzeby połączenia z internetem.
Jeszcze większe wrażenie robi nowy maksymalny rozmiar kontekstu – aż 256 000 tokenów. To kilkakrotnie więcej niż standardowe 4096 tokenów oferowane przez większość konsumenckich procesorów. Taki kontekst oznacza możliwość prowadzenia znacznie dłuższych rozmów z AI lub przetwarzania dużych dokumentów bez utraty jakości odpowiedzi.
Na razie platforma Strix Halo dostępna jest tylko w wybranych, często bardzo drogich urządzeniach. Mimo to eksperci zwracają uwagę, iż AMD przesuwa granice możliwości AI na rynku konsumenckim i daje przedsmak tego, jak może wyglądać przyszłość komputerów osobistych. Lokalne, potężne AI – bez potrzeby korzystania z chmury – staje się coraz bardziej realne.