Ontvang een gratis offerte

Onze vertegenwoordiger neemt spoedig contact met u op.
E-mail
Tel/WhatsApp
Naam
Bedrijfsnaam
Bericht
0/1000

Nieuws

Startpagina >  Nieuws

Aethlumis onthult de nieuwste generatie AI-server TG990V3, met tot 40% verbetering in efficiëntie bij het trainen van grootschalige modellen

2025.11.18

Shenzhen, China — 18 november 2025 — Terwijl de wereldwijde vraag naar AI-rekenkracht blijft stijgen, kondigde Aethlumis vandaag de lancering aan van zijn nieuwe topmodel AI-server, de TG990V3. Na afronding van eerdere implementaties bij grote internetbedrijven, AI-onderzoeksinstellingen en cloudserviceproviders, liet de TG990V3 aanzienlijke prestatieverbeteringen zien bij het trainen van grootschalige modellen. In tests met werkbelastingen van triljoenen parameters, bereikte de server tot 40% verbetering in algehele trainingsefficiëntie, waarbij de trainingscycli met 30%–32% werden verkort ten opzichte van de vorige generatie.

1-1.jpg

AI-infrastructuur bereikt een nieuw keerpunt

Aangezien modelgroottes in de afgelopen twee jaar zijn gegroeid van miljarden naar triljoenen parameters, is de kloof tussen algoritmische vooruitgang en rekeninfrastructuur steeds duidelijker geworden. Aethlumis-CEO Wang Qihang benadrukte tijdens de lancering:

“Het tempo van de evolutie van grote modellen heeft de snelheid van traditionele infrastructuurupgrades overtroffen. De TG990V3 is ontworpen om een hogere trainings-efficiëntie te bieden zonder de hardwarekosten of stroomverbruik te verhogen, waardoor AI-teams sneller en duurzamer kunnen itereren.”

Brancheanalisten merken op dat de concurrentie rond AI-servers is verschoven van puur hardware-opstapelen naar systeemniveau architectonische optimalisatie, een richting die de TG990V3 belichaamt.

2.jpg

 

01.jpg

Hoog-efficiënte interconnectarchitectuur: meer dan 95% peer-to-peer bandbreedtebenutting bij training van 1T-parameters

Uitgerust met acht OAM GPU-modules op basis van de OAI 2.0-standaard, gebruikt de TG990V3 een volgende-generatie multi-laags interconnecttopologie die is geoptimaliseerd voor grootschalige gedistribueerde training.

In interne tests uitgevoerd door een toonaangevend internetbedrijf op een model met een biljoen parameters:

• De efficiëntie van de GPU-naar-GPU-interconnect bleef stabiel tussen de 95–96%

• De latentie van gradientsynchronisatie daalde met 27%

• De totale clusterdoorvoer verbeterde met 21%

Een technisch directeur van het beoordelende AI-lab merkte op:

“Tijdens het trainen van modellen op deze schaal is elke procentuele verbetering in communicatie-efficiëntie belangrijk. De TG990V3 behoudt een stabiele prestatie, zelfs terwijl de clusteromvang toeneemt, wat een groot voordeel is.”


02.jpg

I/O ‘Gouden Verhouding’-ontwerp: Het elimineren van de databottleneck bij AI-training

Een aanhoudende uitdaging bij AI-training is dat krachtige GPUs vaak onderbenut blijven door I/O-bottlenecks — onvoldoende netwerkbandbreedte, beperkte opslagdoorvoer of trage datapipelines.

Om dit op te lossen introduceerde Aethlumis een in de industrie zeldzame 8 : 8 : 16 (GPU : NIC : NVMe) architectuur:

• 400 Gbps specifieke netwerkbandbreedte per GPU

• Twee onafhankelijke NVMe Gen4/Gen5 SSD’s per GPU

• Meer dan 60% vermindering in latentie bij het laden van gegevens

Een binnenlandse AI-startup die deelnam aan de vroege tests merkte op dat het GPU-gebruik consistent bleef tussen de 94% en 97%, aanzienlijk hoger dan het bereik van 70–75% op hun bestaande servers.


03.jpg

Betrouwbaarheid op cluster-niveau: MTTR onder 3 minuten, lineaire schaalvergroting tot 92%

Ontworpen voor langdurige, grootschalige trainingsworkloads, beschikt de TG990V3 over een volledig modulair ontwerp met hot-swapbare GPU-, ventilator-, voeding- en netwerkmodules.

Vroege klanttests meldden:

• Gemiddelde hersteltijd (MTTR) gereduceerd van 10–12 minuten naar minder dan 3 minuten

• 99,95% systeembeschikbaarheid tijdens aanhoudende 24/7 trainingscycli

• 92% efficiëntie in lineaire schaling in clusters van duizenden kaarten

• Dit garandeert ongekende betrouwbaarheid voor bedrijven die grootschalige gedistribueerde trainingsomgevingen gebruiken.

 

Prestatiemetingen uit de praktijk (van vroegadoptanten)

• 32% kortere trainingsduur voor LLM's met triljoenen parameters

• Meer dan 60% verbetering in doorvoersnelheid bij het laden van gegevens

• 92% schaleerrendement in multi-node clusters

• 99,95% beschikbaarheid bij langdurige taken

Toepassingen omvatten:

• Training van grote taalmodellen (LLM) (LLaMA, GPT-serie, enz.)

• Training van multimodale modellen (visie, audio, video, 3D)

• Enterprise AI-platforms en inferentieclusters

• Rekenomgevingen voor onderzoek op universitair en nationaal niveau

3.jpg

De volgende generatie AI-infrastructuur bouwen

Dr. Li Zhang, Vice President Product bij Aethlumis, concludeerde:

“De TG990V3 is geen eenvoudige hardware-update. Het vertegenwoordigt een systeemniveau-optimalisatie van de gehele trainingssuite voor grote modellen — inclusief interconnect-architectuur, I/O-subsysteem en intelligente bediening. We hebben het ontworpen om de komende drie jaar versnelde groei in modelomvang te ondersteunen.”

De TG990V3 is nu beschikbaar voor enterprise-schaal implementatie en wordt al ingezet binnen verschillende cloudplatforms en AI-bedrijven.