Shenzhen, Kina — 18. november 2025 — I takt med den stigende globale efterspørgsel efter AI-beregningskraft annoncerede Aethlumis i dag lanceringen af sin nye flagships-AI-server, TG990V3. Efter at have gennemført tidlige implementeringer hos større internetvirksomheder, AI-forskningsinstitutioner og cloudserviceudbydere har TG990V3 vist betydelige ydelsesmæssige gennembrud inden for træning af store modeller. I tests med arbejdsbelastninger på trillioner af parametre opnåede serveren op til 40 % forbedring i samlet træningseffektivitet, og træningstider blev forkortet med 30–32 % i forhold til forgængerversionen.

AI-infrastruktur når et nyt vendepunkt
Med modeller, der de sidste to år er vokset fra milliarder til trillioner af parametre, er kløften mellem algoritmeudvikling og beregningsinfrastruktur blevet stadig tydeligere. Aethlumis' administrerende direktør, Wang Qihang, fremhævede under begivenheden:
„Hastigheden i udviklingen af store modeller har overgået hastigheden på traditionelle infrastrukturforbedringer. TG990V3 er designet til at levere højere træningseffektivitet uden at øge hardwareomkostningerne eller strømforbruget, hvilket gør det muligt for AI-team at iterere hurtigere og mere bæredygtigt.“
Branchens analytikere bemærker, at konkurrencen inden for AI-servere er skiftet fra simpel hardwarestabling til systemniveau-optimering af arkitekturen – en retning, som TG990V3 efterlever.


Højtydende Forbindelsesarkitektur: 95 % + Peer-to-Peer Båndbreddeudnyttelse ved 1T-Parametertræning
Udstyret med otte OAM GPU-moduler baseret på OAI 2.0-standarden anvender TG990V3 en næste generations flerlags forbindelses-topologi, optimeret til storskalig distribueret træning.
I interne tests udført af et ledende internetfirma på en trilliard-parameter-model:
• Effektiviteten af GPU-til-GPU-forbindelsen forblev stabil på 95–96 %
• Latensen ved gradient-synkronisering faldt med 27 %
• Samlet klyngeydelse forbedret med 21 %
En teknisk direktør fra den vurderende AI-lab sagde:
”Når man træner modeller i denne størrelsesorden, betyder hver procentpoint i kommunikationseffektivitet noget. TG990V3 bibeholder stabil ydelse, selv når klyngestørrelsen vokser, hvilket er et stort forspring.”

I/O "gyldne forhold"-design: Fjerner databottlenecket i AI-træning
En vedvarende udfordring i AI-træning er, at højtydende GPU'er ofte forbliver underudnyttede på grund af I/O-bottlenecks – utilstrækkelig netværksbåndbredde, begrænset lagerhastighed eller langsomme datapipelines.
For at løse dette introducerede Aethlumis en branchen-sjælden arkitektur på 8 : 8 : 16 (GPU : NIC : NVMe):
• 400 Gbps dedikeret netværksbåndbredde per GPU
• To uafhængige NVMe Gen4/Gen5 SSD'er per GPU
• Over 60 % reduktion i latenstid ved dataindlæsning
Et nationalt AI-startup, der deltog i de tidlige tests, bemærkede, at GPU-udnyttelsen konsekvent lå mellem 94 % og 97 %, hvilket er markant højere end de 70–75 %, de så på deres eksisterende servere.

Pålidelighed på klynge-niveau: Genoprettelsestid under 3 minutter, lineær skalerbarhed op til 92%
Designet til langvarige og store træningsmængder har TG990V3 en fuldt modulær arkitektur med hot-swap GPU, ventilator, strømforsyning og netværksmoduler.
Tidlige kundetests rapporterede:
• Gennemsnitlig genoprettelsestid (MTTR) reduceret fra 10–12 minutter til under 3 minutter
• 99,95 % systemtilgængelighed under vedvarende 24/7 træningscyklusser
• 92 % lineær skalerings-effektivitet i tusindkortsklynger
• Dette sikrer hidtil uset pålidelighed for virksomheder, der driver store distribuerede træningsmiljøer.
Ydelsesmålinger fra virkeligheden (fra tidlige brugere)
• 32 % reduktion i træningstid for LLM'er med trillioner af parametre
• Over 60 % forbedring i dataindlæsningens gennemstrømning
• 92 % skaleffektivitet i flernodekluster
• 99,95 % tilgængelighed ved langvarige opgaver
Ansøgninger omfatter:
• Træning af store sprogmodeller (LLM) (LLaMA, GPT-serien osv.)
• Træning af multimodale modeller (billeder, lyd, video, 3D)
• Erhvervs-AI-platforme og inferenskluster
• Universitets- og nationalt forskningscomputemiljøer

Bygger det næste generation af AI-infrastruktur
Dr. Li Zhang, vicepræsident for produkt hos Aethlumis, sluttede af:
»TG990V3 er ikke blot en simpel hardwareopdatering. Den repræsenterer en systemniveau-optimering af hele træningsprocessen for store modeller — herunder interconnect-arkitektur, I/O-undersystem og intelligent drift. Vi har designedet den til at understøtte de næste tre års accelererede vækst i modelskala.«
TG990V3 er nu tilgængelig til implementering i enterprise-størrelse og er allerede i brug på flere skyplatforme og AI-virksomheder.