Wywiad ze starszym wiceprezesem i dyrektorem ds. systemu w AMD, Andrejem Zdravkovicem: UDNA, ROCm dla Radeon, AI Everywhere i wiele więcej!

cyberfeed.pl 2 dni temu



Kilka dni temu informowaliśmy o najnowszym procesorze AMD plany ekspansji dla Serbii. Firma otworzyła dwa nowe centra projektowania inżynieryjnego z biurami w Belgradzie i Niszu. Zostaliśmy zaproszeni na ceremonię otwarcia i przeprowadziliśmy ekskluzywny wywiad z jednym z czołowych dyrektorów AMD, Andrej Zdravkovićktóry jest starszym wiceprezesem i dyrektorem ds. oprogramowania. Wcześniej informowaliśmy o przejściu AMD na firma zajmująca się oprogramowaniem. Firma niedawno potroiła liczbę pracowników zajmujących się inżynierią systemu i przenosi część swoich najlepszych pracowników, aby wesprzeć te zespoły. Plan AMD jest rozłożony na okres od trzech do pięciu lat, aby ulepszyć ekosystem oprogramowania, przyspieszyć rozwój sprzętu, aby częściej wprowadzać nowe produkty i reagować na zmiany w zapotrzebowaniu na oprogramowanie. AMD odkryło, iż aby wspomóc te wysiłki ekspansywne, otwarcie nowych centrów projektowych w Serbii byłoby bardzo korzystne.

Usiedliśmy z Andrejem Zdravkoviciem, aby omówić cel powstania AMD w Serbii i przyszłość niektórych produktów. Zdravkovic jest inżynierem z Serbii, gdzie ukończył studia licencjackie i magisterskie z elektrotechniki na Uniwersytecie w Belgradzie. W 1998 roku Zdravkovic dołączył do ATI i gwałtownie awansował, ostatecznie zostając starszym dyrektorem. Podczas swojej dziesięcioletniej kadencji Zdravkovic był świadkiem znaczącej zmiany w branży, gdy AMD przejęło ATI w 2006 roku. Po krótkim okresie w innej firmie Zdravkovic powrócił do AMD w 2015 roku, przynosząc ze sobą bogactwo doświadczenia i wyjątkową perspektywę na ewolucję branży graficznej i komputerowej.

Oto cały wywiad:

Aleksander: Więc jeżeli chodzi o nowe otwarcie centrum w Serbii, czego ono będzie dotyczyć? Czy będzie dotyczyć oprogramowania, sprzętu, sztucznej inteligencji czy czegoś innego?

Andrzej: Przede wszystkim jest to oprogramowanie dla zespołu, który mamy teraz. Duża część zespołu pracuje nad wirtualizacją naszego procesora graficznego dla centrów danych. Mamy zespół pracujący nad kompilatorami. Mamy zespół pracujący nad ochroną treści i bezpieczeństwem, które będzie rozszerzane o dalsze aspekty bezpieczeństwa. Mamy też zespół pracujący nad technologiami AI dla centrów danych, rozwijający nasz podsystem ROCm dla centrów danych. Nowy zespół, który właśnie założyliśmy, pracuje nad ROCm dla Radeon. Rozszerzamy nasz podsystem ROCm na produkty graficzne Radeon, więc każdy może korzystać z AI na APU AMD i GPU Radeon. Idąc dalej, nie ograniczamy zespołu Serbii do tych technologii. Będzie to pełnoprawne centrum projektowe, będziemy mieć projektowanie RTL, weryfikację sprzętu i wiele innych technologii sprzętowych i programowych jako opcję. To naprawdę będzie zależało od dostępnych talentów i możliwości łączenia się z [local] uniwersytety. Praktycznie tworzenie talentów.

Aleksander: Co skłoniło Cię do przyjazdu do Serbii? Lokalny talent czy coś innego?

Andrzej: Kilka różnych rzeczy. Zdecydowanie dostępność wykwalifikowanych talentów inżynierskich. Zaczęliśmy od dostawcy usług zewnętrznych. Rozpoznaliśmy możliwości i rozwinęliśmy początkowy, stosunkowo mały rdzeń do pokaźnego zespołu inżynierów, którzy teraz dla nas pracują. Osobiście muszę podkreślić, iż lokalny talent jest fenomenalny, ponieważ ukończyłem tutejszy uniwersytet. Bardzo ważne jest, aby inżynierowie, których zatrudniamy, byli bardzo zainteresowani nauką i podejmowaniem nowych wyzwań. Zaczęliśmy współpracę z serbskimi uniwersytetami, aby nawiązać partnerstwo i rozwijać kolejne [generation] talent.

Aleksander: Więc rozmawialiście o ROCm. Jak łatwo jest teraz dla deweloperów i jak łatwo będzie w przyszłości dla deweloperów pisać oprogramowanie ROCm i adaptować się z innych akceleratorów dla AI i uczenia maszynowego do akceleratorów AMD ROCm.

Andrzej:Świetne pytanie. Dzisiaj wyzwaniem dla programistów ROCm jest to, iż muszą pracować w dużym centrum danych, [Instinct MI] produkty typu machine intelligence. Dostęp do tego typu produktów high-end jest ograniczony, zwykle dla deweloperów w dużych firmach, takich jak Microsoft. Ponadto koszt takiego dostępu jest dość wysoki. Wprowadzamy ROCm jako podsystem w produktach graficznych Radeon, produktach graficznych na komputery stacjonarne lub dowolnym Radeon APU zasilającym komputery stacjonarne i notebooki. Deweloperzy będą mieli codzienny dostęp do ROCm. Podsystem ROCm i język, który się nad nim znajduje, czyli „HIP”, jest bardzo interesujący dla wielu deweloperów z perspektywy całkowitej otwartości. W porównaniu z naszą konkurencją mamy system, który jest otwarty od góry do dołu, całkowicie open source. Każdy rozwój, każdy wkład i debugowanie są znacznie łatwiejsze dla deweloperów. Dostarczamy również narzędzia, które pozwalają deweloperowi wziąć aplikację AI zaprojektowaną dla CUDA i użyć aplikacji o nazwie „HIPIFY”, aby przenieść ją z CUDA do uruchomienia bezpośrednio na HIP i ROCm.

Aleksander: Jak niezawodny jest HIPIFY w zastosowaniach korporacyjnych?

Andrzej: Odkryliśmy, iż HIPIFY jest bardzo niezawodny i bardzo prosty. Odkryliśmy również, iż zwykle jest dość wydajny. Dalsze optymalizacje są zawsze mile widziane, oczywiście, ale odkryliśmy, iż na planie działa OK. Istnieją pewne aspekty, które wprowadzają złożoność, ponieważ podsystemy sprzętowe nie są takie same. jeżeli aplikacja używa tych konstrukcji i niektórych wywołań funkcji niższego poziomu, które są specyficzne dla sprzętu, jest to coś, czego HIPIFY nie może przetłumaczyć. Nie znajdujemy tego zbyt często, poza aplikacjami, które są ekstremalnie, ekstremalnie zoptymalizowane. Ale wtedy, jeżeli ktoś miałby chęć zoptymalizować aplikację do ekstremalnego poziomu, pomożemy mu zoptymalizować ją pod kątem HIP/ROCm

Aleksander: Więc strategia AMD polega na zapewnieniu obsługi ROCm w całym stosie, od krawędzi do rdzenia i do chmury. Wszystkie te przypadki?

Andrzej: Prawidłowy.

Aleksander: jeżeli chodzi o nową UDNA: Słyszeliśmy, iż UDNA łączy RDNA i CDNA w jedną architekturę dla GPU. Więc czy to będzie coś, co zostanie tutaj opracowane, czy części tego zostaną tutaj opracowane, czy coś innego?

Andrzej: Tak, to jest nowe. Części tej nowej pracy zostaną opracowane w Serbii. Pracujemy nad zdefiniowaniem kolejnych aspektów tego, co zostanie tutaj opracowane. Technologia rozwija się bardzo, bardzo szybko, więc dostęp do dobrych inżynierów, którzy mogą się gwałtownie uczyć, jest niezwykle, niezwykle ważny. To właśnie mamy w Serbii. W nawiązaniu do pytania o połączenie nowych technologii w notebookach zasilanych przez AMD, jesteśmy głównym graczem w tym, co nazywamy „PC AI”, co jest w rzeczywistości zanurzeniem we wszystkim. To urządzenie, które ma CPU, GPU i nową jednostkę, NPU. Otwieramy świat AI o niskim poborze mocy, używając NPU w połączeniu z nowym systemem operacyjnym Windows, obsługując nowe funkcje, które Microsoft ogłosił dla NPU. Oprócz uruchamiania najbardziej zaawansowanej AI na NPU, możesz również uruchamiać aplikacje AI na GPU AMD i na procesorze AMD.

Aleksander: To bardzo ekscytujące. Ekscytujące, ponieważ prawdziwa moc architektury leży w rozwiązaniach o niskim poborze mocy, a nie w rozwiązaniach o dużej mocy i wysokiej wydajności, gdy dajesz im moc i ogromne TDP, jest o wiele łatwiejsza do uruchomienia niż coś ograniczonego, jak mniejsze NPU.

Andrzej: To prawda. Ciekawym sposobem na spojrzenie na to jest: zawsze musimy znaleźć równowagę. Istnieją aplikacje, które wymagają rozwiązań o dużej mocy, które są natywnie zaprojektowane do pracy, powiedzmy z większymi formatami danych, FP16, FP32… i dużymi rozmiarami danych. Tak więc niektóre aplikacje sztucznej inteligencji wymagają tych formatów, a duża pamięć byłaby uruchamiana na różnych typach GPU. Albo RDNA, albo Machine Intelligence [Instinct MI] Procesory graficzne. jeżeli przejdziesz do dużych modeli językowych, czegoś takiego jak ChatGPT lub tego typu aplikacji, wiele z nich działa doskonale w formatach danych, takich jak INT8 lub INT4. Więc uruchamiamy to na NPU o niskim poborze mocy, wykonując bardzo, bardzo szybko, równie szybko, a choćby szybciej, jak na GPU, zużywając znacznie mniej energii. I tu zaczyna się zabawa z komputerem AI. NPU w połączeniu z APU oferuje coś dla wszystkich aspektu ludzkiej potrzeby w komputerze, komputerze AI. A piękno AMD polega na tym, iż mamy wszystkie rozwiązania do zaoferowania dla wszystkich tych aspektów potrzeby.

Aleksander: Weź aplikację i rozpowszechnij ją wśród wszystkich zespołów. gwałtownie ją opracuj?

Andrzej: Dokładnie. I tu pojawia się drużyna Serbii. Kolejny as w naszym portfolio.

Aleksander: Jaki jest przyszły produkt, na który jesteś najbardziej podekscytowany? Czy jest to coś ze strony oprogramowania, co jest w przygotowaniu, czy coś ze strony sprzętu?

Andrzej: Oczywiście, wiesz, iż nie mogę ujawnić przyszłych produktów, dopóki nie będziemy gotowi je ujawnić. Pochodząc ze świata oprogramowania, innowacje w oprogramowaniu i AI są fenomenalne. Myślę, iż zobaczymy połączenie obu. Sposób, w jaki patrzymy na technologię w AMD, polega na tym, iż oferujemy rozwiązania dla coraz większej liczby pionów. Wszystko, co zrobiliśmy ostatnio, przejęcie Silo, które przynosi ogromną wiedzę i kompetencje w zakresie AI, lub niedawno ogłoszony plan przejęcia ZT Systems. Chcemy pozycjonować się jako dostawca systemów, nie po to, aby konkurować z dostawcami systemów, ale aby rozwijać tę wiedzę, jak budować systemy i rozwiązania. Następną rzeczą ze strony AMD ogólnie będzie bardziej połączenie wszystkiego, aby zapewnić rozwiązania naszym klientom. Przyjrzenie się temu oprogramowaniu staje się jego ogromną częścią. Mój tytuł, Chief Software Officer, pokazuje, jak ważne i jak duże uznanie AMD przywiązuje do oprogramowania. Jesteśmy dalecy od klasycznej firmy półprzewodnikowej, którą byliśmy może 20 lat temu. Tworzymy rozwiązania dla najważniejszych wyzwań świata.



Source link

Idź do oryginalnego materiału