Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
post

Az Nvidia bemutatta új MI-alapú szuperszámítógépét

MEGOSZTÁS

Hihetetlen teljesítményre képes egy új szuperszámítógép; fejlesztője, a grafikus feldolgozó egységek élharcosa újabb lendületet akar vele adni napjaink látványos mesterségesintelligencia-forradalmának, és egyben vetélytársait is lekörözi.

A grafikus feldolgozóegységek, a GPU-k gyártásában világvezető Nvidia bejelentette új szuperszámítógépét, a DGX GH200-at. A rendszerről bevezetésként annyit, hogy közel ötszázszor nagyobb memóriával rendelkezik, mint az általunk ismert, használt számítógépek.

Az 1993-ban alapított cég biztosítja jelentős részben a hardvert a jelen mesterségesintelligencia-fejlesztéseihez. GPU-it a gépi mélytanulás (deep learning) kezdetétől, a 2009-es „big bangtől” használják az MI-t forradalmasító technológiához. A Google Brain az Nvidia grafikus feldolgozó egységeivel abban az évben hozott létre mély neurális hálózatokat, a terület egyik legnagyobb szakértője, Andrew Ng szintén 2009-ben jelentette ki, hogy a GPU-k százszorosukra felgyorsíthatják a mélytanuló rendszerek teljesítményét.

Egy érdekesség: az Nvidia MI-kutatói 2018-ban rájöttek, hogy egy robot a humán munkavégző tevékenységét megfigyelve is képes elvégezni ugyanazt a feladatot. Létrehoztak egy rendszert, amellyel – rövid átdolgozás és tesztelés után – a következőgenerációs általános robotok is vezérelhetők.

Az Nvidia és az AMD versengése

Ng előrejelzése beigazolódott, az Nvidia a GPU-fronton háttérbe szorította nagy riválisát, a grafikuskártya-fejlesztésben szintén élenjáró AMD-t, amelynek máig nincs válasza a vetélytárs RTX 4090-jére. Az Nvidia minden bizonnyal megnyeri a grafikuskártya-gyártók MI-harcát. GPU-kat eredetileg elsősorban gamerek használtak, ezen a területen az AMD máig felveszi a versenyt az Nvidiával.

Csakhogy a GPU-k a játéknál is fontosabb területen, a mesterségesintelligencia-fejlesztésben szintén fontos szerepet játszanak (már csak azért is, mert a játék-PC-ken a háttérben MI-k futnak), és ebben az Nvidia-termékek jobbak, mint az AMD vagy az Intel megoldásai. A Tom’s Hardware januárban végzett összehasonlító tesztelést a szövegből képet generáló Stable Diffusion modellel, és az RTX 4090 – de más Nvidia GPU-k is – sokkal jobban teljesítettek az AMD hardvereinél, az Intel Arc A770-e pedig kifejezetten gyenge munkát végzett. Az RTX 40-es és 30-as szériák egyaránt jól dolgoztak, az AMD RDNA 3 vonala szintén, a 2-es már kevésbé, de még a legjobb AMD-megoldások is az Nvidia-kártyák mögött kullogtak.

A két GPU-típus viszont architekturálisan annyira eltér egymástól, hogy nehéz összehasonlítani őket. A legfőbb ok az Nvidia CUDA számítási platformja és alkalmazásprogramozási interfésze, amellyel az AMD nem veszi fel a versenyt, hiába dolgoztak ki alternatívákat. Az Nvidia jelentős összegeket fektetett a CUDA fejlesztésébe, és meg is lett az eredménye: az utóbbi évek komoly MI-fejlesztéseihez nagyrészt CUDA-könyvtárakat használtak, és ma is azokkal dolgoznak. Az AMD hiába próbálkozik gőzerővel, a különbség egyre csak nő, MI-ben (és gépi tanulásban) most úgy tűnik, behozhatatlan hátrányba kerültek, ráadásul az AMD szoftver-ökoszisztémája sincs azon a szinten, mint a versenytárs hosszú évek munkájával felépített infrastruktúrája.

Mivel az MI egyre inkább áthatja a hétköznapokat, és a számítógépeknek egyre komplexebb feladatokat kell megoldaniuk, a GPU-k fejlődése a jelenleginél is gyorsabb lesz. Ha valaha is utol akarja érni az Nvidiát, az AMD-nek nagyon komolyan át kell gondolnia mesterségesintelligencia-stratégiáját.

Credit: Unsplash+

Szuperszámítógépek

Az új szuperszámítógép nyilvánvalóan tovább erősíti az Nvidia vezető pozícióját, hamarosan olyan MI-éharcosok használhatják, mint a Google (és a DeepMind), a Microsoft (és az OpenAI), vagy a Meta.

Szuperszámítógépeket elsősorban tudományos és katonai alkalmazásokra használnak, és a határok ugyan képlékenyek, vannak átfedések is, de mégsem azonosak a méretes tereket betöltő, általában kormányintézmények, nagyvállalatok és nagybankok munkáját segítő úgynevezett nagygépekkel (mainframe), amelyeket napi feladatokra, egyszerű számításokra és rengeteg adatbázis elérésére optimalizálják.

A szuperszámítógépek teljesítményét a másodpercenkénti millió utasítás (MIPS) helyett másodpercenkénti lebegőpontos műveletek (FLOPS) számában mérik – ezek a számok elképesztőek, kvázi felfoghatatlanok. 2017 óta a leggyorsabbak sebessége meghaladja a tíz a tizenhetediken FLOPS-t, ma pedig a teraflop és a petaflop után már az exaflopnál (tíz a tizennyolcadikon) járnak, és valószínűleg hamarosan megtanulhatjuk a zettaflop (tíz a huszonegyediken) és a yottaflop (tíz a huszonnegyediken) szavakat is. Napjainkban a fejlesztések egyik legnagyobb kihívása a költséghatékony energiaellátás kivitelezése, mert az exaszintű komputerek elektromosáram-fogyasztása kb. kétszázezer háztartásénak felel meg. (Az exaflop tartományba lépve, folyamatosak a fejlesztések, az USA, Kína, Japán és az Európai Unió között egyre élesebb a verseny.)

A DGX GH200 teljesítménye egy exaflop, megosztott memóriája 144 terabájt. Ez a memória ötszázszor nagyobb, mint egy Nvidia DGX A100-as rendszeré. Még egy összehasonlítás: az RTX4090 csúcsra pörgetve száz teraflopot teljesít, igaz, az nem adatközpont GPU. A DGX GH200-ba jelentős számú csúcsteljesítményű GPU-t integráltak, és ezek a GPU-k nagyságrendekkel verik bármelyik fogyasztói PC-t.

A gépet az Nvidia GH200 Grace Hopper szuperchipjei működtetik, összesen 256. A saját fejlesztésű NVLink összekapcsoló technológiának köszönhetően, mindegyik együtt, egyesített rendszerben működnek, azaz nagyon masszív GPU-t alkotnak. Korábban csak nyolcat lehetett NVLinkkel összekapcsolni, a harminckétszeres különbség óriási.

A szuperchipekhez nincs szükség hagyományos CPU-GPU összeköttetésre, azt is házon belül oldották meg (Grace CPU, H100 Tensor Core GPU). Következmény: a processzor és a grafikus kártya közötti sávszélesség jelentősen, akár hétszeresére nő, akárcsak az energiahatékonyság.

 

A közeljövő

Mik az Nvidia céljai az új szuperszámítógéppel?

A DGX GH200 a generatív MI-t, az ajánlórendszereket és az adatfeldolgozást eddig nem látott léptékben forradalmasíthatja. A nyelvi modellek nyilvánvalóan komoly haszonélvezők lesznek, és a ChatGPT, a Bing Chat vagy a Bard feljavításával minden felhasználó jól jár.

A cég fejlesztéseit megosztja a világgal (Google Cloud, Meta, Microsoft stb.), amellyel tovább akarja javítani a generatív MI-t. Az új rendszer hatalmas számítási kapacitása tökéletesen passzol a bonyolult nagy nyelvmodellek (large language models, LLM) szükségleteihez. Javítja, finomítja a gyakorlást. Minél nagyobb a kapacitás, annál nagyobb a modell, jobbak lehetnek a gyakorlóadatok, pontosabbak, árnyaltabbak, koherensebbek a szöveges outputok. Az MI jobban érti a kontextust, a kulturális beágyazódást.

Specializált mesterségesintelligencia-chatbotok szintén felbukkanhatnak.

A nagyvállalat közben építi az MI kutatásfejlesztéseket szintén felgyorsítani hivatott Helios szuperszámítógépet. Négy DGX GH200 rendszert szándékoznak belepakolni, a saját Quantum-2 InfiniBand kapcsolja majd össze őket. Elvileg ezév végére lesz kész, akkor fog online munkába állni.

PODCAST

ICT Global News

VIDEOGALÉRIA
FOTÓGALÉRIA

Legnépszerűbb cikkek