Zmiany sprzętowe Alletra MP powodują zorientowanie macierzy HPE na sztuczną inteligencję

cyberfeed.pl 1 miesiąc temu


W pchnięciu w kierunku obciążeń związanych ze sztuczną inteligencją (AI).firma HPE unowocześniła swoje macierze pamięci masowej Alletra MP, aby umożliwić podłączenie dwukrotnie większej liczby serwerów i zapewnić czterokrotnie większą pojemność w tej samej szafie serwerowej.

Rok po pierwszym uruchomieniu Alletra MP ma teraz cztery węzły sterujące na obudowę zamiast dwóch, każdy z procesorem AMD Epyc z ośmioma, 16 lub 32 rdzeniami. Jego 2U węzły danych mają teraz również rozmiar 1U, z 10 dyskami SSD o pojemności 61,44 TB i maksymalnej pojemności 1,2 PB w obudowie 2U. Wcześniej węzły danych Alletra MP zawierały 20 dysków SSD o pojemności 7,68 TB lub 15,36 TB (co daje do 300 TB na węzeł).

Ten wzrost liczby węzłów oznacza, iż ​​Alletra MP może teraz połączyć się z 2 razy większą liczbą serwerów i zapewnić im 4 razy większą pojemność przy tej samej przestrzeni szafy w centrum danych, a podobne zużycie energiiwedług HPE.

„Nazywamy tę nową generację Alletra MP for AI” – powiedział Olivier Tant, ekspert HPE Alletra MP NAS.

„Dzieje się tak, ponieważ naszym zdaniem doskonale nadaje się do zastąpienia rozwiązań pamięci masowej opartych na GPFS lub BtrFS, które są skomplikowane we wdrożeniu, ale często są wykorzystywane do obciążeń AI. Wierzymy również, iż nasze tablice są bardziej wydajne niż te z DDN w HPC lub Isilon w przypadku obciążeń multimedialnych.”

The Wersja z dostępem blokowym SAN działa jak wersja z dostępem do plików NAS z przełącznikami ROCE 100 Gb/s, które umożliwiają dowolnemu węzłowi kontrolera dostęp do dowolnego węzła danych.

„Ogromną przewagą naszego rozwiązania nad konkurencją jest to, iż wszystkie węzły w klastrze komunikują się ze sobą” – powiedział Tant. „Innymi słowy, nasi konkurenci są ograniczeni do przykładowo 16 węzłów magazynowania, z których trzy będą wykorzystywane przez nadmiarowe dane do kodowania kasującego. To od 15% do 20% pojemności. Możemy wdrożyć klaster składający się ze 140 węzłów, z których trzy służą do redundancji poprzez kodowanie kasujące. Tracimy tylko około 2% wydajności, a to jest prawdziwa korzyść ekonomiczna.”

Sekretny przepis: przełączniki ROCE 100Gbps pomiędzy węzłami

„Nasze rozwiązanie jest również wydajniejsze, co paradoksalnie wynika z tego, iż nie używamy pamięci podręcznej na poziomie kontrolera” – powiedział Michel Parent, ekspert HPE Alletra MP NAS. „Dzięki łączności NVMe/ROCE o szybkości 100 Gb/s pomiędzy wszystkimi elementami macierzy pamięć podręczna przynosi efekt przeciwny do zamierzonego.

„Pamięć podręczna niczego nie przyspiesza, a wręcz spowalnia macierz poprzez ciągłe operacje kopiowania i weryfikacji” – dodał. Według Parent żadna inna macierz pamięci masowej na rynku nie wykorzystuje technologii NVMe/ROCE z szybkością sięgającą 100 Gb/s na port.

Hosty korzystają z sieci Ethernet lub Infiniband (kompatybilnej z Nvidia GPUDirect), aby uzyskać dostęp do najbliższego węzła kontrolera. Podczas zapisu węzeł ten wykonuje kodowanie kasujące i dzieli wymagane dane na inne węzły SSD. Z punktu widzenia hostów sieciowych wszystkie węzły kontrolerów udostępniają te same woluminy plików i blokują jednostki LUN.

W trybie NAS – w którym Alletra MP korzysta z systemu dostępu do plików Vast Data – dostępna jest pamięć podręczna zbudowana z szybkiego flash SCM firmy Kioxia. Bufor ten służy jako obszar roboczy do deduplikacji i kompresji danych plików.

„Nasz system redukcji danych jest jednym z najskuteczniejszych według różnych testów porównawczych” – powiedział Tant. „Wszystkie duplikaty danych są eliminowane. Następnie algorytm znajduje bloki najbardziej do siebie podobne i kompresuje je, co jest bardzo wydajne.”

Jedyne części plików, które są współdzielone pomiędzy kilkoma węzłami, to te, które powstają w wyniku kodowania kasującego. Preferowane jest ponowne odczytanie pliku z dysku SSD zawierającego całość.

Dokładniej, podczas odczytu kontroler przekazuje żądanie do pierwszego węzła SSD wybranego przez najbardziej dostępny przełącznik. Każdy węzeł danych przechowuje indeks całej zawartości klastra. jeżeli węzeł nie przechowuje danych do odczytania, wysyła wymagania kontrolera do węzła, który je przechowuje.

W wersji SAN mechanizm jest podobny, z tą różnicą, iż działa blokowo, a nie na poziomie pliku.

Dzięki takiej architekturze, która opiera się bardziej na szybkości przełączników niż kontrolerów, łatwe staje się przełączanie z jednego węzła na drugi, jeżeli ten nie reaguje wystarczająco gwałtownie na porcie Ethernet.

Jedna tablica dla kilku typów pamięci masowej

Dyski SSD NVMe najszybciej odbudowują plik z bloków danych, ponieważ każde łącze 100 Gb/s w Alletra MP jest równie szybkie lub szybsze niż połączenie sieciowe pomiędzy macierzą a serwerem aplikacji. W macierzach konkurencji, które nie korzystają z przełączników między kontrolerem a dedykowanymi węzłami SSD, zwykle próbuje się optymalizować pod kątem konkretnych zastosowań.

„Jestem przekonany o przewadze ekonomicznej Alletra MP nad konkurencją” – powiedział Tant. „W projekcie AI przedsiębiorstwo zwykle musi wdrożyć potok danych. Oznacza to, iż bardzo wydajna tablica pamięci podczas zapisów zbiera dane wyjściowe z tych obciążeń. Następnie kopiujesz jego zawartość do tablicy pamięci masowej, która ma wydajność odczytu, aby wytrenować model uczenia maszynowego. Następnie przechowujesz wynikowy model w tablicy hybrydowej, aby go użyć.

„Dzięki Alletra MP masz tylko jedną tablicę, która jest równie szybka w zapisie, jak w przypadku ML i wykorzystaniu modelu” – powiedział.



Source link

Idź do oryginalnego materiału