AMD staje się firmą software’ową. Oto plan

cyberfeed.pl 2 miesięcy temu


Zaledwie kilka tygodni temu AMD zaprosiło nas do Barcelony jako część okrągłego stołu, aby podzielić się swoją wizją przyszłości firmy i uzyskać naszą opinię. Na miejscu byli wybitni liderzy AMD, w tym Phil Guido, wiceprezes wykonawczy i dyrektor handlowy oraz Jack Huynh, starszy wiceprezes i dyrektor generalny, Computing and Graphics Business Group. AMD wprowadza duże zmiany w podejściu do technologii, przesuwając nacisk z rozwoju sprzętu na podkreślanie oprogramowania, interfejsów API i doświadczeń AI. Oprogramowanie nie jest już tylko uzupełnieniem sprzętu; jest rdzeniem nowoczesnych ekosystemów technologicznych, a AMD w końcu dostosowuje swoją strategię odpowiednio.

Główną różnicą między AMD i NVIDIA jest to, iż AMD jest firmą sprzętową, która tworzy oprogramowanie na boku, aby wspierać swój sprzęt; podczas gdy NVIDIA jest firmą programistyczną, która projektuje sprzęt na boku, aby przyspieszyć swoje oprogramowanie. To się zmieni, ponieważ AMD przechodzi na oprogramowanie. Uważają, iż mają teraz pełen stos sprzętu komputerowego — od procesorów CPU, przez akceleratory AI, po GPU, FPGA, przetwarzanie danych, a choćby architekturę serwerową. Jedyną granicą, która pozostała dla AMD, jest oprogramowanie.

Przewiń do Barcelony

Weszliśmy do pokoju w Barcelonie spodziewając się typowych bzdur o tym, iż AI PC to kolejna wielka rzecz i iż wszyscy muszą się zaangażować, aby zdobyć udział w rynku — słyszeliśmy to już wcześniej, od prawie wszystkich na Computex Taiwan. Cóż, usłyszeliśmy sporo o tym, jak nowe procesory AMD Ryzen AI 300 series „Strix Point” są czubkiem włóczni dla firmy z AI PC i jak firma uważa, iż ​​przynosi zwycięską kombinację sprzętu, aby to osiągnąć; ale nie spodziewaliśmy się, iż zobaczymy, jak bardzo firma AMD zmienia wszystko, aby zyskać konkurencyjność w tym nowym świecie, co doprowadziło do zdumiewającego ujawnienia przez firmę.

AMD „potroiło nasze inżynierie systemu i stawia na oprogramowanie”. Oznacza to nie tylko zatrudnienie większej liczby osób, ale także umożliwienie ludziom zmiany ról: „przenieśliśmy część naszych najlepszych ludzi w organizacji, aby wspierali” te zespoły. Po zakończeniu tej transformacji firma będzie bardziej przypominać współczesnych w branży, takich jak Intel i NVIDIA. AMD skomentowało, iż w przeszłości „najpierw krzem, potem myśleliśmy o SDK, łańcuchach narzędzi, a potem o ISV (firmach zajmujących się tworzeniem oprogramowania)”. Kontynuowali: „Nasza zmiana strategii polega na tym, aby najpierw rozmawiać z ISV… aby zrozumieć, co programiści chcą włączyć”. co jest fundamentalną zmianą w sposobie tworzenia nowych procesorów. Bardzo podoba mi się ten cytat: „stare AMD po prostu goniło za prędkościami i podawaniem. Nowe AMD będzie przede wszystkim oprogramowaniem AI, wiemy, jak robić krzem” — i zgadzam się, iż to adekwatna droga naprzód.

AMD w starym stylu: Dlaczego stawianie sprzętu na pierwszym miejscu jest złe dla firmy sprzętowej w branży IT
Podejście AMD do technologii, stawiające sprzęt na pierwszym miejscu, odniosło ograniczony sukces rynkowy. Pomimo posiadania mikroarchitektury CPU, która co najmniej dorównuje Intelowi, firma ledwo kontroluje jedną czwartą rynku (zarówno procesorów serwerowych, jak i klienckich łącznie); i pomimo tego, iż jej procesory graficzne do gier są współczesne, ma ledwie jedną szóstą tego rynku. Nie jest to spowodowane brakiem wydajności — AMD produkuje bardzo wydajne procesory CPU i GPU, które są w stanie utrzymać konkurencję w napięciu. Największym problemem technologii AMD jest stosunkowo mniejsze zaangażowanie w ekosystem dostawców systemu — aby jak najlepiej wykorzystać ekskluzywne i unikalne możliwości sprzętu za pośrednictwem technologii systemu pierwszej strony — interfejsów API, narzędzi programistycznych, zasobów, sieci programistycznych i optymalizacji.

Na przykład procesory graficzne Radeon miały możliwości teselacji co najmniej dwie generacje przed NVIDIA, co zostało wykorzystane przez deweloperów dopiero po tym, jak Microsoft ujednolicił je w API DirectX 11, to samo stało się z Mantle i DirectX 12. W obu przypadkach czynnikiem X, którym cieszy się NVIDIA, jest podejście stawiające oprogramowanie na pierwszym miejscu, sposób, w jaki angażuje się w pracę z deweloperami, a co ważniejsze, baza instalacyjna (ponad 75% udziału w rynku dyskretnych procesorów graficznych). Było kilka takich przykładów, w których krzem AMD pakował egzotyczne akceleratory w całym swoim stosie sprzętowym, które nie zostały odpowiednio wykorzystane przez społeczność programistów. Powody są zwykle takie same — AMD było firmą stawiającą sprzęt na pierwszym miejscu.

Dlaczego akcje Tesli są bardziej popularne niż akcje General Motors? Ponieważ General Motors to firma samochodowa, która przypadkiem wykorzystuje w swoich pojazdach pewne technologie; podczas gdy Tesla to firma technologiczna, która przypadkiem zna się na inżynierii samochodowej. Pojazdy Tesli to urządzenia definiowane programowo, które mogą Cię transportować. Podejście Tesli do transportu polegało na zrozumieniu, czego konsumenci chcą lub mogą potrzebować z technologicznego punktu widzenia, a następnie budowaniu sprzętu, aby to osiągnąć. Ostatecznie znasz Teslę z jej inteligentnych samochodów, podobnie jak znasz Nvidię z procesorów graficznych, które „po prostu działają”, a podobnie jak Tesla, przychody Nvidii składają się w przeważającej mierze ze sprzedaży sprzętu — pomimo tego, iż są one na pierwszym miejscu pod względem systemu lub doświadczenia. Innym przykładem dokładnie tego jest Apple, które zbudowało ogromny ekosystem systemu i usług, które są zaprojektowane tak, aby bardzo dobrze ze sobą współpracować, ale także zamykają ludzi w swoim „ogrodzonym ogrodzie”, umożliwiając firmie ogromne zyski w tym procesie.

Słabość firmy NVIDIA
Nie oznacza to, iż AMD w ogóle zaniedbało oprogramowanie — wręcz przeciwnie, firma grała grzecznego gościa, utrzymując dużą część swojego systemu jako open source, poprzez inicjatywy takie jak GPUOpen i ROCm, które są świetnymi zasobami dla deweloperów oprogramowania, a my zdecydowanie kochamy wsparcie dla open source. Po prostu AMD nie traktuje systemu jako swojego głównego produktu, co sprawia, iż ​​ludzie kupują ich sprzęt i przynoszą dochody. AMD jest tego świadome i chce „stworzyć zunifikowaną architekturę w naszym CPU i RDNA, co pozwoli nam uprościć [the] oprogramowanie.” Wygląda to na podejście podobne do OneAPI firmy Intel, co ma wiele sensu, ale będzie to trudny projekt. Przewagą NVIDII jest to, iż mają tylko jeden rodzaj akceleratora — GPU, który uruchamia CUDA — pojedynczy interfejs API, którego mogą nauczyć się wszyscy programiści, co pozwala im rozwiązywać szeroki zakres problemów obliczeniowych na sprzęcie kosztującym od 200 do 30 000 dolarów.

Z drugiej strony jest to również słabość firmy NVIDIA i zaleta AMD. AMD ma bogate portfolio rozwiązań obliczeniowych IP, od klasycznych procesorów CPU i GPU po układy FPGA XDNA (poprzez przejęcie Xilinx), teraz muszą je tylko połączyć, udostępniając ujednolicony interfejs obliczeniowy, który ułatwia strategiczne przenoszenie obciążeń między tymi typami rdzeni, aby zmaksymalizować wydajność, koszt, efektywność lub jedno i drugie. Taka możliwość dałaby firmie możliwość sprzedaży klientom pojedynczego produktu połączonego systemu akceleratora składającego się z komponentów, takich jak procesor CPU, GPU i wyspecjalizowane układy FPGA — podobnie jak kupujesz iPhone’a, a nie ekran, procesor, modem 5G i baterię, aby połączyć je samodzielnie.

Umożliwianie programistom oprogramowania
Jeśli uczestniczyłeś w sesjach GTC firmy NVIDIA, tak jak my, zaledwie 5-10% czasu pokazu poświęcono na rozmowy o sprzęcie firmy NVIDIA (ich najnowszych procesorach graficznych AI lub akceleratorach w górę i w dół stosu), większość rozmowy dotyczyła rozwiązań systemu firm pierwszych — problemów do rozwiązania, rozwiązań, oprogramowania, API, narzędzi dla programistów, narzędzi do współpracy, systemu systemowego bare-metal i dopiero potem sprzętu. AMD rozpoczęło swoją podróż właśnie w tym kierunku.

Rozmawiają teraz z głównymi firmami oprogramowania, takimi jak Microsoft, Adobe i OpenAI, aby dowiedzieć się, jakie są ich plany i czego potrzebują od przyszłej generacji sprzętu. Mapy drogowe AMD pokazują teraz plany firmy na kilka lat w przyszłość, aby ich partnerzy mogli dowiedzieć się, co AMD tworzy, dzięki czemu produkty systemu będą mogły lepiej wykorzystać te nowe funkcje.

Badania rynku

Otrzymaliśmy szczegółową prezentację od firmy badawczej IDC, którą AMD zakontraktowało do zbadania krótkoterminowej i średnioterminowej przyszłości komputerów z AI, a także ideę, iż komputery z natywnym przyspieszeniem przyniosą przełomową zmianę w obliczeniach. Stało się tak wcześniej, gdy cegły stały się iPhone’ami, gdy sieci stały się Internetem, a oparte na tekście monity zostały wygnane na rzecz interfejsów GUI. Szczerze mówiąc, generatywna AI zaczęła żyć własnym życiem i odgrywa kluczową rolę w upowszechnianiu się tej nowej technologii, ale obecna implementacja opiera się na akceleracji opartej na chmurze. Uruchamianie wszystkiego w chmurze wiąże się z ogromnym zużyciem energii, a w procesie tym wykorzystywane są drogie procesory graficzne NVIDIA. Czy ludzie będą chcieli kupić zupełnie nowe urządzenie, aby uzyskać część tego przyspieszenia na swoich urządzeniach w celu zapewnienia prywatności i opóźnienia? To się dopiero okaże. choćby przy 50 TOPS, NPU procesorów AMD „Strix” i Intel „Lunar Lake” nie poradzi sobie z generowaniem obrazu dzięki jednego kliknięcia, ale sprawi, iż oparte na tekście modele LLM będą wykonalne, podobnie jak niektóre efekty audiowizualne, takie jak zastępowanie tła kamery internetowej w aplikacji Teams, redukcja szumów, a choćby tłumaczenie na żywo.

AMD zdaje sobie sprawę z wyzwań, zwłaszcza po tym, jak Intel (Meteor Lake) i Microsoft (Copilot) wszędzie nas spamowały „AI”, a ogromne części bazy użytkowników nie dostrzegają przekonujących argumentów. Prywatność i bezpieczeństwo są na radarze AMD, a ty musisz „pokazać, iż faktycznie zwiększasz produktywność na obciążenie”. jeżeli prosisz ludzi, aby wydali więcej pieniędzy [… you need to prove that] możesz zaoszczędzić godziny tygodniowo…to może być warte inwestycji, [but] będzie wymagać ogromnej edukacji użytkowników końcowych”. Istnieje również cel, aby poświęcić szczególną uwagę „budowie najbardziej innowacyjnych i przełomowych współczynników kształtu” dla notebooków, aby ludzie powiedzieli „wow, jest tu coś nowego”. Szczególnie w obszarze laptopów bardzo uważnie obserwują inicjatywę Windows on Arm firmy Qualcomm i chcą się upewnić, iż „wprowadzą produkt dopiero, gdy będzie gotowy”, a także „zajmą się cenami poniżej 1000 USD”.

Gdzie AMD rozpocznie działalność w 2024 roku?

Jaki jest pierwszy przystanek w podróży AMD? To zapewnienie, iż jest w stanie zwiększyć swój udział w rynku zarówno po stronie klienta z komputerami AI, jak i po stronie centrum danych z procesorami graficznymi AI. W przypadku komputerów AI firma uważa, iż ​​ma zwycięski produkt z procesorami mobilnymi Ryzen AI 300 series „Strix Point”, które jej zdaniem są w dobrej pozycji, aby rozwijać się do 2024 roku. Zdecydowanie pomaga fakt, iż „Strix Point” opiera się na stosunkowo dojrzałym węźle odlewniczym TSMC 4 nm, za pomocą którego może zabezpieczyć wolumeny; w porównaniu z „Lunar Lake” firmy Intel i nadchodzącym „Arrow Lake”, które prawdopodobnie wykorzystają węzeł odlewniczy TSMC 3 nm. ASUS zapowiedział już wydarzenie medialne w połowie lipca, podczas którego planuje wprowadzić na rynek dziesiątki komputerów AI, z których wszystkie będą napędzane układami Ryzen AI 300 series i spełnią wymagania Microsoft Copilot+. jeżeli chodzi o centra danych, akcelerator AMD MI300X spotyka się z dodatkowym popytem ze strony konkurencyjnych procesorów graficznych NVIDIA H100, a firma planuje dalsze inwestowanie w oprogramowanie tego rozwiązania, aby pozyskać duże zamówienia od wiodących dostawców rozwiązań do przetwarzania w chmurze AI, obsługujących popularne aplikacje AI.

Ulepszenia ekosystemu systemu zajmą trochę czasu, AMD patrzy na okres od trzech do pięciu lat, a aby to wesprzeć, AMD znacznie zwiększyło liczbę inżynierów oprogramowania, jak wspomniano wcześniej. Przyspieszyło również rozwój swojego sprzętu: „zamierzamy uruchomić nowy [Radeon] Produkt Instinct co 12 miesięcy”, co jest trudnym zadaniem, ale pomaga szybciej reagować na zmiany na rynkach systemu i jego popyt. Po stronie CPU firma „ma teraz dwa zespoły CPU, jeden robi n+1 [next generation] pozostałe n+2 [two generations ahead],” co trochę przypomina nam strategię tic-tock firmy Intel, która oczywiście była bardziej skoncentrowana na produkcji krzemu. Zapytana o prawo Moore’a i jego upadek, firma skomentowała również, iż bada „AI w projektowaniu układów scalonych, aby wyjść poza miejsce i trasę” i iż „wczorajsza wojna to więcej rasteryzacji, więcej śledzenia promieni, więcej przepustowości”, wyzwania kolejnych generacji to nie tylko sprzęt, ale wsparcie systemu dla pielęgnowania relacji z programistami systemu odgrywa kluczową rolę. AMD uważa nawet, iż odwieczne przeciąganie liny między CPU a GPU może się zmienić w przyszłości: „nie możemy myśleć o AI jako o funkcji pola wyboru/sztuczki, takiej jak USB — AI może stać się bohaterem”.

Pocieszające jest jednak to, iż AMD podjęło odważną decyzję o przeznaczeniu zasobów na zatrudnienie utalentowanych specjalistów od oprogramowania, zamiast przejmować inną firmę sprzętową, jak to zwykle robi, gdy ma pełny portfel. Ta decyzja zaprocentuje w nadchodzących latach.



Source link

Idź do oryginalnego materiału