Få ett gratispris

Vår representant kommer att kontakta dig inom kort.
E-post
Tel/WhatsApp
Namn
Företagsnamn
Meddelande
0/1000

Nyheter

Hemsida >  Nyheter

Aethlumis lanserar nästa generations AI-server TG990V3, som ger upp till 40 % bättre effektivitet vid träning av storskaliga modeller

2025.11.18

Shenzhen, Kina – 18 november 2025 – Medan den globala efterfrågan på AI-beräkningskraft fortsätter att öka har Aethlumis idag meddelat lanseringen av sin nya flaggskepps-AI-server, TG990V3. Efter att ha slutfört etableringar i ett tidigt skede hos stora internetföretag, AI-forskningsinstitut och molntjänstleverantörer har TG990V3 visat på betydande prestandaförbättringar vid träning av storskaliga modeller. I tester med arbetsbelastningar på triljontals parametrar uppnådde servern upp till 40 % bättre total träneffektivitet, med träningstider som förkortades med 30–32 % jämfört med föregående generation.

1-1.jpg

AI-infrastruktur når en ny vändpunkt

Med tanke på att modellstorlekarna har ökat från miljarder till triljoner parametrar under de senaste två åren har klyftan mellan algoritmisk utveckling och beräkningsinfrastruktur blivit alltmer tydlig. Aethlumis VD Wang Qihang betonade under lanseringsevenemanget:

“Hastigheten i utvecklingen av stora modeller har överskridit hastigheten för traditionella infrastrukturuppgraderingar. TG990V3 är designad för att leverera högre träningseffektivitet utan att öka hårdvarukostnaden eller energiförbrukningen, vilket gör att AI-team kan arbeta snabbare och på ett mer hållbart sätt.”

Branschanalytiker påpekar att konkurrensen inom AI-servrar har förskjutits från ren hårdvaruöverlappning till systemnivå arkitektonisk optimering, en riktning som TG990V3 inkarnerar.

2.jpg

 

01.jpg

Högpresterande Interconnect-arkitektur: 95 % + bandbreddsutnyttjande för peer-to-peer i träning med 1T-parametrar

Utrustad med åtta OAM GPU-moduler baserade på OAI 2.0-standarden, använder TG990V3 en nästa generations flernivåinterconnect-topologi optimerad för storskalig distribuerad träning.

I interna tester genomförda av ett ledande internetföretag på en triljon-parametermodell:

• Effektivitet i anslutning mellan GPU:er förblev stabil på 95–96 %

• Latensen för gradientssynkronisering minskade med 27 %

• Total klustergenomströmning förbättrades med 21 %

En teknisk chef från den utvärderande AI-laben kommenterade:

”När man tränar modeller i denna skala spelar varje procent av kommunikationseffektivitet roll. TG990V3 bibehåller stabil prestanda även när klustrets storlek ökar, vilket är en stor fördel.”


02.jpg

I/O "gyllene snittet"-design: Eliminerar dataflaskhalsen i AI-träning

En pågående utmaning inom AI-träning är att högpresterande GPU:er ofta används under sin kapacitet på grund av I/O-flaskhalsar – otillräcklig nätverksbandbredd, begränsad lagringsgenomströmning eller långsamma datapipelines.

För att lösa detta introducerade Aethlumis en sällsynt 8 : 8 : 16 (GPU : NIC : NVMe) arkitektur:

• 400 Gbps dedikerad nätverksbandbredd per GPU

• Två oberoende NVMe Gen4/Gen5 SSD:er per GPU

• Över 60 % lägre latens vid dataladdning

En inhems AI-startup som deltog i de tidiga testerna noterade att GPU-utnyttjandet konsekvent låg mellan 94–97 %, vilket är betydligt högre än 70–75 %-intervallet på deras befintliga servrar.


03.jpg

Tillförlitlighet på klusternivå: MTTR under 3 minuter, linjär skalning upp till 92%

Designad för långvariga och storskaliga träningsarbetsbelastningar erbjuder TG990V3 en helt modulär arkitektur med bytbara GPU-, fläkt-, strömförsörjnings- och nätverksmoduler.

Tidiga kundtester rapporterade:

• Medel tid till reparation (MTTR) minskad från 10–12 minuter till under 3 minuter

• 99,95 % systemtillgänglighet under kontinuerliga 24/7-träningscykler

• 92 % linjär skalningseffektivitet i kluster med tusentals kort

• Detta säkerställer oöverträffad tillförlitlighet för företag som bedriver stora distribuerade träningsmiljöer.

 

Prestandamätningar från verkligheten (från tidiga användare)

• 32 % minskad tränings tid för LLM:er med biljontals parametrar

• Över 60 % förbättring av datainläsningens dataflöde

• 92 % skalningseffektivitet i flernodskluster

• 99,95 % tillgänglighet vid långvariga uppgifter

Applikationer inkluderar:

• träning av stora språkmodeller (LLM) (LLaMA, GPT-serien, etc.)

• träning av multimodella modeller (vision, ljud, video, 3D)

• företags-AI-plattformar och inferenskluster

• universitets- och nationella forskningsdator-miljöer

3.jpg

Bygger nästa generation av AI-infrastruktur

Dr. Li Zhang, Vice VD för produkt på Aethlumis, avslutade:

“TG990V3 är inte en enkel hårdvaruuppdatering. Den representerar en systemnivåoptimering av hela processen för träning av stora modeller – inklusive anslutningsarkitektur, I/O-underystem och intelligent drift. Vi har utformat den för att stödja de kommande tre årens accelererade tillväxt vad gäller modellstorlek.”

TG990V3 finns nu tillgänglig för distribution i företagsstorlek och används redan på flera molnplattformar och AI-företag.