Google,  Mesterséges intelligencia

Ironwood: A Google Cloud legújabb, hetedik generációs Tensor Processing Unitja

A mesterséges intelligencia fejlődése újabb mérföldkőhöz érkezett a Google Cloud háza táján. Bemutatkozott az Ironwood, a vállalat legújabb, hetedik generációs Tensor Processing Unitja (TPU), amely a legmodernebb AI-modellek gyors és energiatakarékos futtatására készült. Ez az egyedi fejlesztés a felhőalapú szolgáltatások teljesítményét és hatékonyságát emeli új szintre, lehetővé téve a nagyszabású, valós idejű AI-alapú alkalmazások gördülékeny működését. Az alábbiakban bemutatjuk a legfontosabb tudnivalókat az Ironwoodról, amely már elérhető a Google Cloud ügyfelei számára.

Célzottan az AI inferencia korszakára tervezve

Az Ironwood kifejezetten az AI-modellek gyors és magas volumenű inferencia igényeit szolgálja ki, vagyis azt a számítási feladatot, amikor a már betanított modellek valós idejű válaszokat adnak. Ezzel a TPU-val a Google jelentősen túlszárnyalta előző generációját, hiszen egyetlen chip akár négyszer jobb teljesítményre képes mind a tanítási, mind az inferencia folyamatok során. Ez a teljesítménynövekedés nem csak gyorsabb válaszidőt, hanem lényegesen alacsonyabb energiafelhasználást is eredményez, így az Ironwood az eddigi legfejlettebb és leggazdaságosabb egyedi szilíciumlapka a Google portfóliójában.

Szuperpodokban kapcsolódó, hatalmas számítási kapacitás

Az Ironwood nem csupán önmagában kiemelkedő, hanem a Google AI Hypercomputer rendszerének kulcseleme is. Ez a szuperkomputerrendszer összekapcsolja a különálló TPU-kat úgynevezett podokká, amelyek egységesen, összhangban dolgoznak együtt. Az Ironwood esetében a rendszer akár 9 216 chipből álló szuperpodokat is képes létrehozni, amelyek egyedülálló Inter-Chip Interconnect (ICI) hálózat segítségével kommunikálnak 9,6 terabit/másodperces sebességgel.

Ez a hatalmas összeköttetés rendkívül gyors adatcsere lehetőségét biztosítja a chipek között, és így a rendszer eléri az 1,77 petabájt közösen használt nagysebességű memóriát. Ez a kapacitás megszünteti az adatátviteli szűk keresztmetszeteket, amelyek a legösszetettebb AI-modellek futtatásánál is problémát jelenthetnek. Ennek köszönhetően jelentősen csökken a szükséges számítási órák száma, valamint az energiafelhasználás is, amely alapvetően támogatja a környezettudatos AI-fejlesztést.

AI tervezte AI hardver – az innováció folyamatos köre

Az Ironwood fejlesztése egyedi együttműködés eredménye a Google kutatói és mérnökei között. Míg más versenytársak külső beszállítókra támaszkodnak, a Google DeepMind és a TPU mérnökök szoros partneri kapcsolatban dolgoznak együtt, így a legújabb AI modellek igényei közvetlenül beépülnek a hardvertervezésbe. Ez a kölcsönhatás lehetővé teszi, hogy az új generációs chipek jelentősen gyorsabban fussanak, mint elődeik.

Ráadásul az Ironwood tervezése során az AI is közreműködött: a Google AlphaChip nevű megoldása megerősítéses tanulás segítségével alkotott optimális chipelrendezéseket, amelyeket már az utolsó három TPU generációnál alkalmaztak, így az Ironwood is ennek a mesterséges intelligencián alapuló innovációnak a gyümölcse. Ez a folyamatos visszacsatolás és automatizált fejlesztés biztosítja, hogy a Google Cloud ügyfelei mindig a legmodernebb, leggyorsabb és energiahatékonyabb AI platformhoz férjenek hozzá.

Az Ironwood tehát nem csupán egy új TPU, hanem egy komplex, a jövő mesterséges intelligenciáját kiszolgáló, kimagasló teljesítményű és fenntartható megoldás, amely jelentősen megkönnyíti a felhőalapú AI-fejlesztések és szolgáltatások működését. A Google Cloud ügyfelei számára ez egy újabb lépés a gyorsabb, hatékonyabb és környezetbarátabb mesterséges intelligencia felé.

Forrás: az eredeti angol cikk itt olvasható