Ne hagyja, hogy a tárolás váljon a modellképzés kulcsfontosságú szűk keresztmetszetévé

Azt mondják, hogy a technológiai cégek vagy GPU-kért küzdenek, vagy azon az úton, hogy megvásárolják azokat.Áprilisban a Tesla vezérigazgatója, Elon Musk 10 000 GPU-t vásárolt, és kijelentette, hogy a vállalat továbbra is nagy mennyiségű GPU-t vásárol az NVIDIA-tól.A vállalati oldalon az IT-személyzet is keményen törekszik annak biztosítására, hogy a GPU-kat folyamatosan használják a befektetések megtérülésének maximalizálása érdekében.Egyes vállalatok azonban azt tapasztalhatják, hogy miközben a GPU-k száma növekszik, a GPU tétlensége súlyosabbá válik.

Ha a történelem megtanított valamit a nagy teljesítményű számítástechnikáról (HPC), akkor az az, hogy a tárolást és a hálózatépítést nem szabad feláldozni annak rovására, hogy túlságosan a számításokra összpontosítunk.Ha a tároló nem tudja hatékonyan továbbítani az adatokat a számítási egységekhez, még akkor sem, ha Ön rendelkezik a világon a legtöbb GPU-val, akkor sem fogja elérni az optimális hatékonyságot.

Mike Matchett, a Small World Big Data elemzője szerint a kisebb modellek a memóriában (RAM) is végrehajthatók, így nagyobb hangsúlyt lehet fektetni a számításokra.A több milliárd csomóponttal rendelkező nagyobb modellek, például a ChatGPT azonban nem tárolhatók a memóriában a magas költségek miatt.

„Nem fér el több milliárd csomópont a memóriában, így a tárolás még fontosabbá válik” – mondja Matchett.Sajnos a tervezés során gyakran figyelmen kívül hagyják az adattárolást.

Általában a használati esettől függetlenül négy közös pont van a modellképzési folyamatban:

1. Modellképzés
2. Következtetési alkalmazás
3. Adattárolás
4. Gyorsított számítástechnika

A modellek létrehozásakor és üzembe helyezésekor a legtöbb követelmény előtérbe helyezi a gyors proof-of-concept (POC) vagy tesztelési környezeteket a modell betanításának megkezdéséhez, az adattárolási igényeket nem veszik figyelembe.

A kihívás azonban abban rejlik, hogy a képzés vagy a következtetések telepítése hónapokig vagy akár évekig is eltarthat.Sok vállalat ez idő alatt gyorsan megnöveli a modellméretét, és az infrastruktúrát bővíteni kell, hogy alkalmazkodjon a növekvő modellekhez és adatkészletekhez.

A Google több millió ML képzési terhelésre vonatkozó kutatása azt mutatja, hogy a képzési idő átlagosan 30%-át a bemeneti adatfolyamon töltik.Míg a korábbi kutatások a GPU-k optimalizálására összpontosítottak a képzés felgyorsítása érdekében, sok kihívás továbbra is fennáll az adatfolyam különböző részeinek optimalizálása terén.Ha jelentős számítási teljesítménye van, az igazi szűk keresztmetszet az, hogy milyen gyorsan tud adatokat betáplálni a számításokba az eredmények elérése érdekében.

Konkrétan az adattárolás és -kezelés kihívásai megkövetelik az adatnövekedés tervezését, amely lehetővé teszi az adatok folyamatos kinyerését az előrehaladás során, különösen akkor, ha olyan fejlettebb felhasználási esetekbe merészkedik, mint például a mély tanulás és a neurális hálózatok, amelyek magasabb követelményeket támasztanak tárolási kapacitás, teljesítmény és méretezhetőség szempontjából.

Különösen:

Méretezhetőség
A gépi tanulás hatalmas mennyiségű adat kezelését igényli, és az adatok mennyiségének növekedésével a modellek pontossága is javul.Ez azt jelenti, hogy a vállalkozásoknak minden nap több adatot kell gyűjteniük és tárolniuk.Ha a tárhely nem méretezhető, az adatigényes munkaterhelés szűk keresztmetszetek kialakulásához vezet, ami korlátozza a teljesítményt, és költséges GPU tétlenségi időt eredményez.

Rugalmasság
Több protokoll (beleértve az NFS-t, SMB-t, HTTP-t, FTP-t, HDFS-t és S3-at) rugalmas támogatása szükséges a különböző rendszerek igényeinek kielégítéséhez, nem pedig egyetlen típusú környezetre korlátozva.

Késleltetés
Az I/O késleltetés kritikus fontosságú a modellek felépítéséhez és használatához, mivel az adatok többszöri beolvasása és újraolvasása.Az I/O késleltetés csökkentése napokkal vagy hónapokkal lerövidítheti a modellek betanítási idejét.A gyorsabb modellfejlesztés közvetlenül nagyobb üzleti előnyöket jelent.

áteresztőképesség
A tárolórendszerek teljesítménye döntő fontosságú a hatékony modellképzéshez.A képzési folyamatok nagy mennyiségű adatot tartalmaznak, jellemzően terabájt per óra.

Párhuzamos hozzáférés
A nagy teljesítmény elérése érdekében a képzési modellek a tevékenységeket több párhuzamos feladatra osztják fel.Ez gyakran azt jelenti, hogy a gépi tanulási algoritmusok egyszerre több folyamatból (esetleg több fizikai szerveren) érik el ugyanazokat a fájlokat.A tárolórendszernek teljesítenie kell az egyidejű igényeket a teljesítmény csökkenése nélkül.

Alacsony késleltetéssel, nagy áteresztőképességgel és nagyszabású párhuzamos I/O-val kapcsolatos kiemelkedő képességeivel a Dell PowerScale ideális tárolási kiegészítője a GPU-gyorsítású számítástechnikának.A PowerScale hatékonyan csökkenti a több terabájtos adatkészleteket betanító és tesztelő elemzési modellekhez szükséges időt.A PowerScale all-flash tárolóban a sávszélesség 18-szorosára nő, kiküszöbölve az I/O szűk keresztmetszeteket, és hozzáadható a meglévő Isilon-fürtökhöz a nagy mennyiségű strukturálatlan adat értékének felgyorsítása és felszabadítása érdekében.

Ezenkívül a PowerScale több protokollos hozzáférési képességei korlátlan rugalmasságot biztosítanak a munkaterhelések futtatásához, lehetővé téve az adatok tárolását az egyik protokoll használatával, és a hozzáférést egy másik protokollal.A PowerScale platform hatékony szolgáltatásai, rugalmassága, méretezhetősége és vállalati szintű funkcionalitása a következő kihívások kezelésében segít:

- Akár 2,7-szeresére gyorsíthatja fel az innovációt, csökkentve a modell képzési ciklusát.

- Szüntesse meg az I/O szűk keresztmetszeteket, és gyorsabb modellképzést és érvényesítést, jobb modellpontosságot, fokozott adattudományi termelékenységet és a számítástechnikai befektetések maximális megtérülését biztosítsa a vállalati szintű szolgáltatások, a nagy teljesítmény, a párhuzamosság és a méretezhetőség kihasználásával.Növelje a modell pontosságát mélyebb, nagyobb felbontású adatkészletekkel, akár 119 PB effektív tárolókapacitás kihasználásával egyetlen fürtben.

- Érje el a méretarányos üzembe helyezést a kisméretű és egymástól függetlenül skálázható számítási és tárolási lehetőségek elindításával, amely robusztus adatvédelmi és biztonsági lehetőségeket biztosít.

- Növelje az adattudományi termelékenységet a helyben végzett elemzésekkel és előre validált megoldásokkal a gyorsabb, alacsony kockázatú üzembe helyezés érdekében.

- Használja ki a legjobb technológiákon alapuló, bevált tervezéseket, beleértve az NVIDIA GPU-gyorsítást és a referenciaarchitektúrákat az NVIDIA DGX rendszerekkel.A PowerScale nagy teljesítménye és párhuzamossága megfelel a tárolási teljesítmény követelményeinek a gépi tanulás minden szakaszában, az adatgyűjtéstől és előkészítéstől a modelltanításig és következtetésekig.A OneFS operációs rendszerrel együtt minden csomópont zökkenőmentesen működhet ugyanazon a OneFS-vezérelt fürtön belül, olyan vállalati szintű funkciókkal, mint a teljesítménymenedzsment, az adatkezelés, a biztonság és az adatvédelem, lehetővé téve a modelltanítás és a vállalkozások validálásának gyorsabb befejezését.


Feladás időpontja: 2023-03-03