Intel Gaudi 2 pozostaje jedyną testowaną alternatywą dla NV H100 pod względem wydajności generowania sztucznej inteligencji

cyberfeed.pl 1 miesiąc temu


Dzisiaj MLCommons opublikowało wyniki standardowego w branży testu porównawczego MLPerf v4.0 do wnioskowania. Wyniki firmy Intel dotyczące akceleratorów Intel Gaudi 2 i procesorów Intel Xeon Scalable piątej generacji z rozszerzeniami Intel Advanced Matrix Extensions (Intel AMX) potwierdzają zaangażowanie firmy we wprowadzanie „AI Everywhere” dzięki szerokiemu portfolio konkurencyjnych rozwiązań. Akcelerator Intel Gaudi 2 AI pozostaje jedyną testowaną alternatywą dla Nvidii H100 pod względem wydajności generatywnej sztucznej inteligencji (GenAI) i zapewnia wysoki stosunek wydajności do ceny. Co więcej, firma Intel pozostaje jedynym dostawcą procesorów do serwerów, który przesyła wyniki MLPerf. Wyniki procesorów Intel Xeon 5. generacji poprawiły się średnio 1,42x w porównaniu z wynikami procesorów Intel Xeon 4. generacji w MLPerf Inference v3.1.

„Wciąż poprawiamy wydajność sztucznej inteligencji w standardowych testach branżowych w całym naszym portfolio akceleratorów i procesorów. Dzisiejsze wyniki pokazują, iż dostarczamy rozwiązania AI, które spełniają dynamiczne i szeroko zakrojone wymagania AI naszych klientów. Zarówno produkty Intel Gaudi, jak i Xeon zapewniają naszym klientom opcje gotowe do wdrożenia i zapewniające duży stosunek ceny do wydajności” – powiedział Zane Ball, wiceprezes i dyrektor generalny firmy Intel ds. zarządzania produktami DCAI.

Opierając się na wynikach szkolenia i wnioskowania z poprzednich rund MLPerf, wyniki Intela MLPerf zapewniają klientom standardowe w branży testy porównawcze do oceny wydajności AI.

Informacje o programie Intel Gaudi 2 Wyniki: Pakiet systemu Intel Gaudi stale zwiększa pokrycie popularnych modeli wielkojęzycznych (LLM) i modeli multimodalnych. W przypadku MLPerf Inference v4.0 firma Intel przedstawiła wyniki akceleratora Gaudi 2 dla najnowocześniejszych modeli Stable Diffusion XL i Llama v2-70B.

Ze względu na duże zapotrzebowanie klientów na wnioskowanie o generowaniu tekstu o twarzy (TGI), w wynikach projektu Llama Gaudiego wykorzystano zestaw narzędzi TGI, który obsługuje ciągłe przetwarzanie wsadowe i równoległość tensorów, zwiększając wydajność skalowania LLM w świecie rzeczywistym. W przypadku Llama v2-70B Gaudi 2 dostarczył odpowiednio 8035,0 i 6287,5 dla tokenów offline i serwerowych na sekundę. W przypadku Stable Diffusion XL Gaudi 2 uzyskał odpowiednio 6,26 i 6,25 dla próbek offline na sekundę i zapytań do serwera na sekundę. Dzięki tym wynikom Intel Gaudi 2 w dalszym ciągu oferuje atrakcyjny stosunek ceny do wydajności, co jest ważnym czynnikiem przy obliczaniu całkowitego kosztu posiadania (TCO).

Informacje o wynikach procesorów Intel Xeon piątej generacji: W wyniku usprawnień sprzętu i systemu wyniki procesorów Intel Xeon piątej generacji poprawiły się o geośrednią wynoszącą 1,42x w porównaniu z wynikami procesorów Intel Xeon czwartej generacji w aplikacji MLPerf Inference v3.1. Na przykład w przypadku GPT-J z optymalizacjami oprogramowania, w tym ciągłym przetwarzaniem wsadowym, zgłoszenie Xeon 5. generacji wykazało około 1,8-krotny wzrost wydajności w porównaniu z przesłaną wersją 3.1. Podobnie DLRMv2 wykazał około 1,8-krotny wzrost wydajności i dokładność na poziomie 99,9 dzięki rozwiązaniu MergedEmbeddingBag i innym optymalizacjom wykorzystującym technologię Intel AMX.

Firma Intel jest dumna ze współpracy z partnerami OEM — Cisco, Dell, Quanta, Supermicro i WiWynn — w celu dostarczania własnych zgłoszeń MLPerf. Ponadto firma Intel przedstawiła wyniki MLPerf dla czterech generacji produktów Xeon, począwszy od 2020 r., a Xeon jest procesorem głównym w przypadku wielu zgłoszeń dotyczących akceleratorów.

Jak wypróbować rozwiązania AI w Intel Developer Cloud: Procesory Xeon piątej generacji i akceleratory Intel Gaudi 2 są dostępne do oceny w Intel Developer Cloud. W tym środowisku użytkownicy mogą prowadzić szkolenia na małą i dużą skalę (LLM lub GenAI), wnioskować o obciążeniach produkcyjnych na dużą skalę, zarządzać zasobami obliczeniowymi AI i nie tylko.



Source link

Idź do oryginalnego materiału