Szencsen, Kína — 2025. november 18. — Mivel a globális igény az AI számítási teljesítmény iránt továbbra is növekszik, az Aethlumis ma bejelentette új zászlóshajó AI szerverének, a TG990V3-nak az elindítását. Miután a korai telepítések már sikeresen megvalósultak vezető internetcégeknél, AI-kutató intézményeknél és felhőszolgáltatóknál, a TG990V3 jelentős teljesítménybeli áttöréseket ért el nagy léptékű modelltanítás terén. Trilliónyi paramétert foglaló munkaterhelések tesztelése során a szerver akár 40%-os javulást ért el az összesített tanítási hatékonyságban, a tanítási ciklusok pedig 30–32%-kal rövidebbek lettek az előző generációhoz képest.

Az AI infrastruktúra új töréspontjához érkezett
Az elmúlt két évben a modellméretek milliárdosról trillió paraméterre bővültek, és egyre nyilvánvalóbbá vált az algoritmusfejlesztés és a számítástechnikai infrastruktúra közötti rés. Az Aethlumis vezérigazgatója, Wang Csiheng a bemutatón kiemelte:
„A nagymodell-fejlődés üteme felülmúlta a hagyományos infrastruktúra-fejlesztések sebességét. A TG990V3 úgy lett tervezve, hogy magasabb betanítási hatékonyságot biztosítson a hardverköltségek vagy az energiafogyasztás növelése nélkül, lehetővé téve az AI csapatok számára, hogy gyorsabban és fenntarthatóbban iteráljanak.”
A szakértők megjegyzik, hogy az AI-szerverek versenye a nyers hardverhalmozásról a rendszerszintű architekturális optimalizációra tolódott el – ezt a TG990V3 testesíti meg.


Magas hatékonyságú összekapcsolási architektúra: 95% feletti peer-to-peer sávszélesség-kihasználtság 1T paraméteres tanítás során
Nyolc OAM GPU modullal felszerelt, az OAI 2.0 szabványon alapuló TG990V3 egy következő generációs, többszintű összekapcsolási topológiát alkalmaz, amelyet nagy léptékű elosztott tanításra optimalizáltak.
Egy vezető internetcég által végzett belső tesztelés során egy trillió paraméterből álló modellen:
• A GPU-GPU közötti csatolás hatékonysága 95–96% között maradt stabil
• A gradiens szinkronizálási késleltetés 27%-kal csökkent
• A teljes fürt átbocsátóképessége 21%-kal javult
Az értékelő MI-labor műszaki igazgatója hozzászólt:
„Amikor ekkora méretű modelleket tanítunk, minden százaléknyi kommunikációs hatékonyság számít. A TG990V3 akkor is stabil teljesítményt nyújt, amikor a fürt mérete növekszik, ami jelentős előnyt jelent.”

I/O „aranyarány” tervezés: az adatcsatorna-szűk keresztmetszet megszüntetése az MI tanításban
Az MI tanítás egy tartós kihívása, hogy a nagy teljesítményű GPU-k gyakran alulhasznosulnak az I/O szűk keresztmetszetek miatt – elégtelen hálózati sávszélesség, korlátozott tároló átbocsátóképesség vagy lassú adatbetöltési folyamatok következtében.
Ennek orvoslására az Aethlumis bevezetett egy iparágban ritka 8 : 8 : 16 (GPU : NIC : NVMe) architektúrát:
• 400 Gbps dedikált hálózati sávszélesség GPU-nként
• Két független NVMe Gen4/Gen5 SSD a GPU-ként
• Több mint 60%-os csökkenés az adatbetöltési késésben
Egy hazai AI indítvány, amely részt vett a korai tesztelésben, azt jegyezte fel, hogy a GPU-kihasználtság állandóan 94–97% között maradt, ami jelentősen magasabb, mint a meglévő szervereiken tapasztalt 70–75%.

Fürtminőségű megbízhatóság: MTTR 3 perc alatt, lineáris skálázás akár 92%-ig
Hosszú idejű, nagy léptékű tanulási terhelésekhez tervezve, a TG990V3 teljesen moduláris architektúrával rendelkezik, melegen cserélhető GPU-, ventillátor-, tápegység- és hálózati modulokkal.
A korai ügyfelek tesztjei szerint:
• Az átlagos javítási idő (MTTR) 10–12 percről kevesebb, mint 3 perc alá csökkent
• 99,95%-os rendelkezésre állás folyamatos, 24/7-es tanítási ciklusok alatt
• 92%-os lineáris skálázási hatékonyság ezer kártyás fürtökben
• Ez korábban soha nem látott megbízhatóságot biztosít azoknak a vállalatoknak, amelyek nagy méretű elosztott tanulási környezetben működnek.
A gyakorlatban mért teljesítményjelzők (a korai felhasználóktól)
• 32%-os csökkentés a trillió paraméteres nagy nyelvi modellek tanítási idejében
• Több mint 60%-os javulás az adatbetöltési átviteli sebességben
• 92%-os skálázási hatékonyság többcsomópontos fürtökben
• 99,95%-os rendelkezésre állás hosszú ideig futó feladatok során
Az alkalmazások a következők:
• Nagy nyelvi modell (LLM) tanítása (LLaMA, GPT-sorozat stb.)
• Multimodális modell tanítása (kép, hang, videó, 3D)
• Vállalati AI platformok és következtetési fürtök
• Egyetemi és nemzeti szintű kutatási számítástechnikai környezetek

A következő generációs AI infrastruktúra építése
Dr. Li Zhang, az Aethlumis termékigazgatója, így zárta:
„A TG990V3 nem csupán egyszerű hardverfrissítés. A teljes nagy modellképzési folyamat rendszerszintű optimalizálását jelenti – ideértve az összekötő architektúrát, az I/O alrendszert és az intelligens műveleteket. Úgy terveztük, hogy támogassa a következő három évben felgyorsuló modellméret-növekedést.”
A TG990V3 már elérhető vállalati méretű üzembe helyezésre, és jelenleg több felhőplatformon és AI-cégnél is használatban van.