Azt mondják, hogy a technológiai cégek vagy GPU-kért küzdenek, vagy azon az úton, hogy megvásárolják azokat. Áprilisban a Tesla vezérigazgatója, Elon Musk 10 000 GPU-t vásárolt, és kijelentette, hogy a vállalat továbbra is nagy mennyiségű GPU-t vásárol az NVIDIA-tól. A vállalati oldalon az IT-személyzet is keményen törekszik annak biztosítására, hogy a GPU-kat folyamatosan használják a befektetések megtérülésének maximalizálása érdekében. Egyes vállalatok azonban azt tapasztalhatják, hogy miközben a GPU-k száma növekszik, a GPU tétlensége súlyosabbá válik.
Ha a történelem megtanított valamit a nagy teljesítményű számítástechnikáról (HPC), akkor az az, hogy a tárolást és a hálózatépítést nem szabad feláldozni annak rovására, hogy túlságosan a számításokra összpontosítunk. Ha a tároló nem tudja hatékonyan továbbítani az adatokat a számítási egységekhez, még akkor sem, ha Ön rendelkezik a világon a legtöbb GPU-val, akkor sem fogja elérni az optimális hatékonyságot.
Mike Matchett, a Small World Big Data elemzője szerint a kisebb modellek a memóriában (RAM) is végrehajthatók, így nagyobb hangsúlyt lehet fektetni a számításokra. A több milliárd csomóponttal rendelkező nagyobb modellek, például a ChatGPT azonban nem tárolhatók a memóriában a magas költségek miatt.
„Nem fér el több milliárd csomópont a memóriában, így a tárolás még fontosabbá válik” – mondja Matchett. Sajnos a tervezés során gyakran figyelmen kívül hagyják az adattárolást.
Általában a használati esettől függetlenül négy közös pont van a modellképzési folyamatban:
1. Modellképzés
2. Következtetési alkalmazás
3. Adattárolás
4. Gyorsított számítástechnika
A modellek létrehozásakor és üzembe helyezésekor a legtöbb követelmény előtérbe helyezi a gyors proof-of-concept (POC) vagy tesztelési környezeteket a modell betanításának megkezdéséhez, és az adattárolási igényeket nem veszik figyelembe.
A kihívás azonban abban rejlik, hogy a képzés vagy a következtetések telepítése hónapokig vagy akár évekig is eltarthat. Sok vállalat ez idő alatt gyorsan megnöveli a modellméretét, és az infrastruktúrát bővíteni kell, hogy alkalmazkodjon a növekvő modellekhez és adatkészletekhez.
A Google több millió ML képzési terhelésre vonatkozó kutatása azt mutatja, hogy a képzési idő átlagosan 30%-át a bemeneti adatfolyamon töltik. Míg a korábbi kutatások a GPU-k optimalizálására összpontosítottak a képzés felgyorsítása érdekében, sok kihívás továbbra is fennáll az adatfolyam különböző részeinek optimalizálása terén. Ha jelentős számítási kapacitással rendelkezik, az igazi szűk keresztmetszet az, hogy milyen gyorsan tud adatokat betáplálni a számításokba az eredmények elérése érdekében.
Konkrétan az adattárolás és -kezelés kihívásai megkövetelik az adatnövekedés tervezését, amely lehetővé teszi az adatok folyamatos kinyerését az előrehaladás során, különösen akkor, ha olyan fejlettebb felhasználási esetekbe merészkedik, mint például a mély tanulás és a neurális hálózatok, amelyek magasabb követelményeket támasztanak tárolási kapacitás, teljesítmény és méretezhetőség szempontjából.
Különösen:
Méretezhetőség
A gépi tanulás hatalmas mennyiségű adat kezelését igényli, és az adatok mennyiségének növekedésével a modellek pontossága is javul. Ez azt jelenti, hogy a vállalkozásoknak minden nap több adatot kell gyűjteniük és tárolniuk. Ha a tárhely nem méretezhető, az adatigényes munkaterhelés szűk keresztmetszetek kialakulásához vezet, ami korlátozza a teljesítményt, és költséges GPU tétlenségi időt eredményez.
Rugalmasság
Több protokoll (beleértve az NFS-t, SMB-t, HTTP-t, FTP-t, HDFS-t és S3-at) rugalmas támogatása szükséges a különböző rendszerek igényeinek kielégítéséhez, nem pedig egyetlen típusú környezetre korlátozva.
Látencia
Az I/O késleltetés kritikus fontosságú a modellek felépítéséhez és használatához, mivel az adatok többszöri beolvasása és újraolvasása. Az I/O késleltetés csökkentése napokkal vagy hónapokkal lerövidítheti a modellek betanítási idejét. A gyorsabb modellfejlesztés közvetlenül nagyobb üzleti előnyöket jelent.
áteresztőképesség
A tárolórendszerek teljesítménye döntő fontosságú a hatékony modellképzéshez. A képzési folyamatok nagy mennyiségű adatot tartalmaznak, jellemzően terabájt per óra.
Párhuzamos hozzáférés
A nagy teljesítmény elérése érdekében a képzési modellek a tevékenységeket több párhuzamos feladatra osztják fel. Ez gyakran azt jelenti, hogy a gépi tanulási algoritmusok egyszerre több folyamatból (esetleg több fizikai szerveren) érik el ugyanazokat a fájlokat. A tárolórendszernek teljesítenie kell az egyidejű igényeket a teljesítmény csökkenése nélkül.
Alacsony késleltetéssel, nagy áteresztőképességgel és nagyszabású párhuzamos I/O-val kapcsolatos kiemelkedő képességeivel a Dell PowerScale ideális tárolási kiegészítője a GPU-gyorsítású számítástechnikának. A PowerScale hatékonyan csökkenti a több terabájtos adatkészleteket betanító és tesztelő elemzési modellekhez szükséges időt. A PowerScale all-flash tárolóban a sávszélesség 18-szorosára nő, kiküszöbölve az I/O szűk keresztmetszeteket, és hozzáadható a meglévő Isilon-fürtökhöz a nagy mennyiségű strukturálatlan adat értékének felgyorsítása és felszabadítása érdekében.
Ezenkívül a PowerScale több protokollos hozzáférési képességei korlátlan rugalmasságot biztosítanak a munkaterhelések futtatásához, lehetővé téve az adatok tárolását az egyik protokoll használatával, és a hozzáférést egy másik protokollal. Pontosabban, a PowerScale platform hatékony szolgáltatásai, rugalmassága, méretezhetősége és vállalati szintű funkcionalitása segít a következő kihívások kezelésében:
- Akár 2,7-szeresére gyorsíthatja fel az innovációt, csökkentve a modell képzési ciklusát.
- Szüntesse meg az I/O szűk keresztmetszeteket, és gyorsabb modellképzést és érvényesítést, jobb modellpontosságot, fokozott adattudományi termelékenységet és a számítástechnikai befektetések maximális megtérülését biztosítsa a vállalati szintű szolgáltatások, a nagy teljesítmény, a párhuzamosság és a méretezhetőség kihasználásával. Növelje a modell pontosságát mélyebb, nagyobb felbontású adatkészletekkel, akár 119 PB effektív tárolókapacitás kihasználásával egyetlen fürtben.
- Érje el a méretarányos üzembe helyezést a kisméretű és egymástól függetlenül skálázható számítási és tárolási lehetőségek elindításával, amely robusztus adatvédelmi és biztonsági lehetőségeket biztosít.
- Növelje az adattudományi termelékenységet a helyben végzett elemzésekkel és előre validált megoldásokkal a gyorsabb, alacsony kockázatú üzembe helyezés érdekében.
- Használja ki a legjobb technológiákon alapuló, bevált tervezéseket, beleértve az NVIDIA GPU-gyorsítást és a referenciaarchitektúrákat az NVIDIA DGX rendszerekkel. A PowerScale nagy teljesítménye és párhuzamossága megfelel a tárolási teljesítmény követelményeinek a gépi tanulás minden szakaszában, az adatgyűjtéstől és előkészítéstől a modelltanításig és következtetésekig. A OneFS operációs rendszerrel együtt minden csomópont zökkenőmentesen működhet ugyanabban a OneFS-vezérelt fürtben, olyan vállalati szintű funkciókkal, mint a teljesítménymenedzsment, az adatkezelés, a biztonság és az adatvédelem, amelyek lehetővé teszik a modelltanítás és a vállalkozások validálásának gyorsabb befejezését.
Feladás időpontja: 2023-03-03