Akceleratory AMD Instinct MI300X dostępne w Oracle Cloud Infrastructure

cyberfeed.pl 9 godzin temu


AMD ogłosiło dziś, iż Oracle Cloud Infrastructure (OCI) wybrało akceleratory AMD Instinct MI300X z otwartym oprogramowaniem ROCm do zasilania najnowszej instancji OCI Compute Supercluster o nazwie BM.GPU.MI300X.8. W przypadku modeli AI, które mogą obejmować setki miliardów parametrów, OCI Supercluster z AMD MI300X obsługuje do 16 384 procesorów graficznych w jednym klastrze, wykorzystując tę ​​samą ultraszybką technologię struktury sieciowej, z której korzystają inne akceleratory w OCI. Zaprojektowane do obsługi wymagających obciążeń AI, w tym wnioskowania i szkolenia dużego modelu językowego (LLM), które wymagają wysokiej przepustowości z wiodącą pojemnością pamięci i przepustowością, te instancje OCI bare metal zostały już przyjęte przez firmy, w tym Fireworks AI.

„AMD Instinct MI300X i otwarte oprogramowanie ROCm przez cały czas zyskują na popularności jako zaufane rozwiązania do obsługi najbardziej krytycznych obciążeń OCI AI” — powiedział Andrew Dieckmann, wiceprezes korporacyjny i dyrektor generalny Data Center GPU Business w AMD. „W miarę jak te rozwiązania będą się dalej rozwijać na rosnących rynkach intensywnie korzystających z AI, połączenie to przyniesie korzyści klientom OCI dzięki wysokiej wydajności, efektywności i większej elastyczności projektowania systemów”.

„Możliwości wnioskowania akceleratorów AMD Instinct MI300X uzupełniają szeroki wybór wysokowydajnych instancji bare metal firmy OCI, aby usunąć narzut związany z wirtualizacją obliczeniową powszechnie stosowaną w infrastrukturze AI” — powiedział Donald Lu, starszy wiceprezes ds. rozwoju systemu w Oracle Cloud Infrastructure. „Cieszymy się, iż możemy zaoferować większy wybór klientom, którzy chcą przyspieszyć obciążenia AI w konkurencyjnej cenie”.

Zapewniamy zaufaną wydajność i otwarty wybór w zakresie szkolenia i wnioskowania AI
AMD Instinct MI300X przeszedł obszerne testy, które zostały zweryfikowane przez OCI, podkreślając jego możliwości wnioskowania i szkolenia AI w celu obsługi przypadków użycia optymalnych pod względem opóźnienia, choćby przy większych rozmiarach partii, oraz zdolność do dopasowania największych modeli LLM do jednego węzła. Te wyniki wydajności Instinct MI300X przyciągnęły uwagę deweloperów modeli AI.

Fireworks AI oferuje szybką platformę przeznaczoną do budowania i wdrażania generatywnej AI. Dzięki ponad 100 modelom Fireworks AI wykorzystuje zalety wydajności znalezione w OCI przy użyciu AMD Instinct MI300X.

„Fireworks AI pomaga przedsiębiorstwom budować i wdrażać złożone systemy AI w szerokim zakresie branż i przypadków użycia” — powiedział Lin Qiao, CEO Fireworks AI. „Ilość dostępnej pamięci w oprogramowaniu otwartym AMD Instinct MI300X i ROCm pozwala nam skalować usługi dla naszych klientów w miarę rozwoju modeli”.



Source link

Idź do oryginalnego materiału