NVIDIA przedstawia korzyści kosztów platformy wnioskowania

cyberfeed.pl 1 dzień temu


Firmy w każdej branży wprowadzają w tym roku usługi AI. Dla Microsoft, Oracle, zakłopotanie, snap i setki innych wiodących firm, korzystając z Platforma wnioskowania Nvidia AI-Pełny stos obejmujący światowej klasy krzem, systemy i oprogramowanie-jest kluczem do dostarczania wysokiej przepustowości i niskiej opóźnień oraz umożliwienia doskonałych doświadczeń użytkowników przy jednoczesnym obniżeniu kosztów. Postęp NVIDIA w zakresie optymalizacji systemu wnioskowania i Nvidia Hopper Platforma pomaga branżom obsługiwać najnowsze generatywne modele AI, zapewniając doskonałe wrażenia użytkowników, jednocześnie optymalizując całkowity koszt własności. Platforma Hopper pomaga również dostarczyć 15x więcej Efektywność energetyczna W przypadku obciążeń dotyczących wnioskowania w porównaniu z poprzednimi pokoleniami.

Wnioskowanie AI jest Notorycznie trudneponieważ wymaga wielu kroków, aby uzyskać adekwatną równowagę między przepustowością a doświadczeniem użytkownika. Ale podstawowy cel jest prosty: generuj więcej tokenów przy niższych kosztach. Tokeny reprezentują słowa w dużym modelu języka (LLM) System – a przy usługach dotyczących wnioskowania AI zwykle ładuje się za każdy milion tokenów, cel ten oferuje najbardziej widoczny zwrot z inwestycji AI i energii stosowanej na zadanie. Optymalizacja systemu pełnego stosu stanowi klucz do poprawy wydajności wnioskowania AI i osiągnięcia tego celu.

Opłacalna przepustowość użytkownika

Firmy są często kwestionowane równoważeniem wydajności i kosztów obciążeń dotyczących wnioskowania. Podczas gdy niektórzy klienci lub przypadki użycia mogą działać z modelem poza pudełkiem lub hostowanym, inni mogą wymagać dostosowania. Technologie NVIDIA upraszczają wdrażanie modelu przy jednoczesnym optymalizacji kosztów i wydajności dla obciążeń dotyczących wnioskowania AI. Ponadto klienci mogą doświadczyć elastyczności i możliwości dostosowywania dzięki modelom, które zdecydują się wdrożyć.

NVIDIA NIM MicroServices, Nvidia Triton Server i biblioteka NVIDIA TENSORT należą do rozwiązań wnioskowania, które NVIDIA oferuje potrzeby użytkowników:

  • Nvidia Nim Mikroosłuje wnioskowania są pakowane i zoptymalizowane wydajność do gwałtownie wdrażania modeli fundamentów AI na każdej infrastrukturze-Cloud, Data Centers, Edge lub Stations.
  • Nvidia Triton Serwer wnioskowania, jeden z najpopularniejszych firm projekty typu open sourceumożliwia użytkownikom pakowanie i obsługę dowolnego modelu, niezależnie od ramy AI, w których został przeszkolony.
  • Nvidia Tensorrt to wysokowydajna biblioteka wnioskowania o głębokim uczeniu się, która obejmuje optymalizacje wykonawcze i modele w celu zapewnienia niskiego opóźnienia i wysokiej przepustowości wnioskowania dla aplikacji produkcyjnych.

Dostępne we wszystkich głównych rynkach chmurowych, Nvidia AI Enterprise Platforma systemu obejmuje wszystkie te rozwiązania i zapewnia wsparcie klasy korporacyjnej, stabilność, zarządzanie i bezpieczeństwo.

Dzięki platformie wnioskowania AI AI-Agnostia-Agnostia, firmy oszczędzają produktywność, rozwój oraz koszty infrastruktury i konfiguracji. Korzystanie z technologii NVIDIA może również zwiększyć przychody biznesowe, pomagając firmom unikać przestojów i oszukańczych transakcji, zwiększyć wskaźniki konwersji zakupów e-commerce i generować nowe strumienie przychodów napędzanych sztuczną inteligencją.

Wnioskowanie LLM oparte na chmurze
Aby ułatwić wdrożenie LLM, NVIDIA ściśle współpracowała z każdym głównym dostawcą usług w chmurze, aby upewnić się, iż platforma wnioskowania NVIDIA może być płynnie wdrażana w chmurze przy minimalnym lub nie wymaganym kodzie. Nvidia Nim jest zintegrowana z usługami narodowymi w chmurze, takimi jak:

  • Amazon Sagemaker AI, Amazon Bedrock Marketplace, Amazon Elastic Kubernetes Service
  • Google Cloud’s Vertex AI, Google Kubernetes Silnik
  • Microsoft Azure AI Foundry wkrótce, usługa Azure Kubernetes
  • Narzędzia do nauki danych Oracle Cloud Infrastructure, Oracle Cloud Infrastructure Kubernetes Silnik

Ponadto, w przypadku spersonalizowanych wdrażania wnioskowania, serwer wnioskowania NVIDIA Triton jest głęboko zintegrowany ze wszystkimi głównymi dostawcami usług w chmurze.

Na przykład dzięki OCI Data Science Platformwdrażanie Nvidia Triton jest tak proste, jak włączenie przełącznika w argumentach wiersza poleceń podczas wdrażania modelu, który natychmiast uruchamia punkt końcowy wnioskowania Nvidia Triton.

Podobnie, dzięki Azure Machine Learning, użytkownicy mogą wdrażać NVIDIA Triton albo z wdrożeniem bez kodu za pośrednictwem Azure Machine Learning Studio lub wdrażanie pełnego kodu dzięki Azure Machine Learning CLI. AWS zapewnia wdrożenie jednego kliknięcia dla NVIDIA NIM z SageMaker Marketplace i Google Cloud zapewnia opcję wdrożenia jednego kliknięcia w Google Kubernetes Engine (GKE). Google Cloud zapewnia opcję wdrażania jednego kliknięcia w Google Kubernetes Engine, a AWS oferuje Nvidia Triton na swoich kontenerach AWS Deep Learning.

Platforma wnioskowania AI NVIDIA wykorzystuje również popularne metody komunikacji do dostarczania prognoz sztucznej inteligencji, automatycznie dostosowując się do rosnących i zmieniających się potrzeb użytkowników w infrastrukturze opartej na chmurze.

Od przyspieszania LLM po ulepszanie kreatywnych przepływów pracy i przekształcanie zarządzania umową, platforma wnioskowania AI NVIDIA daje rzeczywisty wpływ w różnych branżach. Dowiedz się, w jaki sposób kooperacja i innowacje umożliwiają organizacjom poniżej osiągnięcie nowego poziomu wydajności i skalowalności.

Pełny artykuł można znaleźć Tutaj.

Dowiedz się więcej o tym, jak NVIDIA zapewnia przełomowe wyniki wnioskowania i bądź na bieżąco z najnowszymi Wydajność wnioskowania AI aktualizacje.



Source link

Idź do oryginalnego materiału