Shenzhen, China — 18 november 2025 — Terwijl de wereldwijde vraag naar AI-rekenkracht blijft stijgen, kondigde Aethlumis vandaag de lancering aan van zijn nieuwe topmodel AI-server, de TG990V3. Na afronding van eerdere implementaties bij grote internetbedrijven, AI-onderzoeksinstellingen en cloudserviceproviders, liet de TG990V3 aanzienlijke prestatieverbeteringen zien bij het trainen van grootschalige modellen. In tests met werkbelastingen van triljoenen parameters, bereikte de server tot 40% verbetering in algehele trainingsefficiëntie, waarbij de trainingscycli met 30%–32% werden verkort ten opzichte van de vorige generatie.

AI-infrastructuur bereikt een nieuw keerpunt
Aangezien modelgroottes in de afgelopen twee jaar zijn gegroeid van miljarden naar triljoenen parameters, is de kloof tussen algoritmische vooruitgang en rekeninfrastructuur steeds duidelijker geworden. Aethlumis-CEO Wang Qihang benadrukte tijdens de lancering:
“Het tempo van de evolutie van grote modellen heeft de snelheid van traditionele infrastructuurupgrades overtroffen. De TG990V3 is ontworpen om een hogere trainings-efficiëntie te bieden zonder de hardwarekosten of stroomverbruik te verhogen, waardoor AI-teams sneller en duurzamer kunnen itereren.”
Brancheanalisten merken op dat de concurrentie rond AI-servers is verschoven van puur hardware-opstapelen naar systeemniveau architectonische optimalisatie, een richting die de TG990V3 belichaamt.


Hoog-efficiënte interconnectarchitectuur: meer dan 95% peer-to-peer bandbreedtebenutting bij training van 1T-parameters
Uitgerust met acht OAM GPU-modules op basis van de OAI 2.0-standaard, gebruikt de TG990V3 een volgende-generatie multi-laags interconnecttopologie die is geoptimaliseerd voor grootschalige gedistribueerde training.
In interne tests uitgevoerd door een toonaangevend internetbedrijf op een model met een biljoen parameters:
• De efficiëntie van de GPU-naar-GPU-interconnect bleef stabiel tussen de 95–96%
• De latentie van gradientsynchronisatie daalde met 27%
• De totale clusterdoorvoer verbeterde met 21%
Een technisch directeur van het beoordelende AI-lab merkte op:
“Tijdens het trainen van modellen op deze schaal is elke procentuele verbetering in communicatie-efficiëntie belangrijk. De TG990V3 behoudt een stabiele prestatie, zelfs terwijl de clusteromvang toeneemt, wat een groot voordeel is.”

I/O ‘Gouden Verhouding’-ontwerp: Het elimineren van de databottleneck bij AI-training
Een aanhoudende uitdaging bij AI-training is dat krachtige GPUs vaak onderbenut blijven door I/O-bottlenecks — onvoldoende netwerkbandbreedte, beperkte opslagdoorvoer of trage datapipelines.
Om dit op te lossen introduceerde Aethlumis een in de industrie zeldzame 8 : 8 : 16 (GPU : NIC : NVMe) architectuur:
• 400 Gbps specifieke netwerkbandbreedte per GPU
• Twee onafhankelijke NVMe Gen4/Gen5 SSD’s per GPU
• Meer dan 60% vermindering in latentie bij het laden van gegevens
Een binnenlandse AI-startup die deelnam aan de vroege tests merkte op dat het GPU-gebruik consistent bleef tussen de 94% en 97%, aanzienlijk hoger dan het bereik van 70–75% op hun bestaande servers.

Betrouwbaarheid op cluster-niveau: MTTR onder 3 minuten, lineaire schaalvergroting tot 92%
Ontworpen voor langdurige, grootschalige trainingsworkloads, beschikt de TG990V3 over een volledig modulair ontwerp met hot-swapbare GPU-, ventilator-, voeding- en netwerkmodules.
Vroege klanttests meldden:
• Gemiddelde hersteltijd (MTTR) gereduceerd van 10–12 minuten naar minder dan 3 minuten
• 99,95% systeembeschikbaarheid tijdens aanhoudende 24/7 trainingscycli
• 92% efficiëntie in lineaire schaling in clusters van duizenden kaarten
• Dit garandeert ongekende betrouwbaarheid voor bedrijven die grootschalige gedistribueerde trainingsomgevingen gebruiken.
Prestatiemetingen uit de praktijk (van vroegadoptanten)
• 32% kortere trainingsduur voor LLM's met triljoenen parameters
• Meer dan 60% verbetering in doorvoersnelheid bij het laden van gegevens
• 92% schaleerrendement in multi-node clusters
• 99,95% beschikbaarheid bij langdurige taken
Toepassingen omvatten:
• Training van grote taalmodellen (LLM) (LLaMA, GPT-serie, enz.)
• Training van multimodale modellen (visie, audio, video, 3D)
• Enterprise AI-platforms en inferentieclusters
• Rekenomgevingen voor onderzoek op universitair en nationaal niveau

De volgende generatie AI-infrastructuur bouwen
Dr. Li Zhang, Vice President Product bij Aethlumis, concludeerde:
“De TG990V3 is geen eenvoudige hardware-update. Het vertegenwoordigt een systeemniveau-optimalisatie van de gehele trainingssuite voor grote modellen — inclusief interconnect-architectuur, I/O-subsysteem en intelligente bediening. We hebben het ontworpen om de komende drie jaar versnelde groei in modelomvang te ondersteunen.”
De TG990V3 is nu beschikbaar voor enterprise-schaal implementatie en wordt al ingezet binnen verschillende cloudplatforms en AI-bedrijven.