Shenzhen, Kina – 18 november 2025 – Medan den globala efterfrågan på AI-beräkningskraft fortsätter att öka har Aethlumis idag meddelat lanseringen av sin nya flaggskepps-AI-server, TG990V3. Efter att ha slutfört etableringar i ett tidigt skede hos stora internetföretag, AI-forskningsinstitut och molntjänstleverantörer har TG990V3 visat på betydande prestandaförbättringar vid träning av storskaliga modeller. I tester med arbetsbelastningar på triljontals parametrar uppnådde servern upp till 40 % bättre total träneffektivitet, med träningstider som förkortades med 30–32 % jämfört med föregående generation.

AI-infrastruktur når en ny vändpunkt
Med tanke på att modellstorlekarna har ökat från miljarder till triljoner parametrar under de senaste två åren har klyftan mellan algoritmisk utveckling och beräkningsinfrastruktur blivit alltmer tydlig. Aethlumis VD Wang Qihang betonade under lanseringsevenemanget:
“Hastigheten i utvecklingen av stora modeller har överskridit hastigheten för traditionella infrastrukturuppgraderingar. TG990V3 är designad för att leverera högre träningseffektivitet utan att öka hårdvarukostnaden eller energiförbrukningen, vilket gör att AI-team kan arbeta snabbare och på ett mer hållbart sätt.”
Branschanalytiker påpekar att konkurrensen inom AI-servrar har förskjutits från ren hårdvaruöverlappning till systemnivå arkitektonisk optimering, en riktning som TG990V3 inkarnerar.


Högpresterande Interconnect-arkitektur: 95 % + bandbreddsutnyttjande för peer-to-peer i träning med 1T-parametrar
Utrustad med åtta OAM GPU-moduler baserade på OAI 2.0-standarden, använder TG990V3 en nästa generations flernivåinterconnect-topologi optimerad för storskalig distribuerad träning.
I interna tester genomförda av ett ledande internetföretag på en triljon-parametermodell:
• Effektivitet i anslutning mellan GPU:er förblev stabil på 95–96 %
• Latensen för gradientssynkronisering minskade med 27 %
• Total klustergenomströmning förbättrades med 21 %
En teknisk chef från den utvärderande AI-laben kommenterade:
”När man tränar modeller i denna skala spelar varje procent av kommunikationseffektivitet roll. TG990V3 bibehåller stabil prestanda även när klustrets storlek ökar, vilket är en stor fördel.”

I/O "gyllene snittet"-design: Eliminerar dataflaskhalsen i AI-träning
En pågående utmaning inom AI-träning är att högpresterande GPU:er ofta används under sin kapacitet på grund av I/O-flaskhalsar – otillräcklig nätverksbandbredd, begränsad lagringsgenomströmning eller långsamma datapipelines.
För att lösa detta introducerade Aethlumis en sällsynt 8 : 8 : 16 (GPU : NIC : NVMe) arkitektur:
• 400 Gbps dedikerad nätverksbandbredd per GPU
• Två oberoende NVMe Gen4/Gen5 SSD:er per GPU
• Över 60 % lägre latens vid dataladdning
En inhems AI-startup som deltog i de tidiga testerna noterade att GPU-utnyttjandet konsekvent låg mellan 94–97 %, vilket är betydligt högre än 70–75 %-intervallet på deras befintliga servrar.

Tillförlitlighet på klusternivå: MTTR under 3 minuter, linjär skalning upp till 92%
Designad för långvariga och storskaliga träningsarbetsbelastningar erbjuder TG990V3 en helt modulär arkitektur med bytbara GPU-, fläkt-, strömförsörjnings- och nätverksmoduler.
Tidiga kundtester rapporterade:
• Medel tid till reparation (MTTR) minskad från 10–12 minuter till under 3 minuter
• 99,95 % systemtillgänglighet under kontinuerliga 24/7-träningscykler
• 92 % linjär skalningseffektivitet i kluster med tusentals kort
• Detta säkerställer oöverträffad tillförlitlighet för företag som bedriver stora distribuerade träningsmiljöer.
Prestandamätningar från verkligheten (från tidiga användare)
• 32 % minskad tränings tid för LLM:er med biljontals parametrar
• Över 60 % förbättring av datainläsningens dataflöde
• 92 % skalningseffektivitet i flernodskluster
• 99,95 % tillgänglighet vid långvariga uppgifter
Applikationer inkluderar:
• träning av stora språkmodeller (LLM) (LLaMA, GPT-serien, etc.)
• träning av multimodella modeller (vision, ljud, video, 3D)
• företags-AI-plattformar och inferenskluster
• universitets- och nationella forskningsdator-miljöer

Bygger nästa generation av AI-infrastruktur
Dr. Li Zhang, Vice VD för produkt på Aethlumis, avslutade:
“TG990V3 är inte en enkel hårdvaruuppdatering. Den representerar en systemnivåoptimering av hela processen för träning av stora modeller – inklusive anslutningsarkitektur, I/O-underystem och intelligent drift. Vi har utformat den för att stödja de kommande tre årens accelererade tillväxt vad gäller modellstorlek.”
TG990V3 finns nu tillgänglig för distribution i företagsstorlek och används redan på flera molnplattformar och AI-företag.