Shenzhen, China — 18 noiembrie 2025 — Pe măsură ce cererea globală de putere de calcul AI continuă să crească, Aethlumis a anunțat astăzi lansarea noului său server AI flagship, TG990V3. După finalizarea implementărilor din faza incipientă în cadrul principalelor companii internet, instituții de cercetare în domeniul AI și furnizori de servicii cloud, TG990V3 a demonstrat progrese semnificative în eficiența antrenamentelor la scară largă. În testele care implicau sarcini de lucru cu trilioane de parametri, serverul a obținut o îmbunătățire de până la 40% în eficiența generală de antrenament, iar ciclurile de antrenament au fost reduse cu 30%–32% față de generația anterioară.

Infrastructura AI atinge un nou punct de inflexiune
Pe măsură ce dimensiunile modelelor au crescut de la miliarde la trilioane de parametri în ultimii doi ani, diferența dintre evoluția algoritmilor și infrastructura de calcul a devenit din ce în ce mai evidentă. CEO-ul Aethlumis, Wang Qihang, a subliniat în timpul evenimentului de lansare:
„Ritmul evoluției modelelor mari a depășit viteza de actualizare a infrastructurii tradiționale. TG990V3 este conceput pentru a oferi o eficiență mai mare în procesul de antrenare, fără a crește costurile hardware sau consumul de energie, permițând echipelor de inteligență artificială să itereze mai rapid și mai durabil.”
Analystii din industrie remarcă faptul că competiția în domeniul serverelor AI s-a mutat de la acumularea brută de componente hardware la optimizarea arhitecturală la nivel de sistem, o direcție pe care TG990V3 o încarnează.


Arhitectură Interconectată de Înaltă Eficiență: Utilizare a lățimii de bandă peer-to-peer de peste 95% în antrenarea modelelor cu un trillion de parametri
Echipat cu opt module GPU OAM bazate pe standardul OAI 2.0, TG990V3 adoptă o topologie de interconectare multi-nivel de generație nouă, optimizată pentru antrenament distribuit la scară largă.
În testele interne efectuate de o companie internet de top pe un model cu un trillion de parametri:
• Eficiența interconexiunii GPU-GPU a rămas stabilă între 95–96%
• Latența sincronizării gradientului a scăzut cu 27%
• Productivitatea totală a clusterului a crescut cu 21%
Un director tehnic din cadrul laboratorului de evaluare AI a comentat:
„Atunci când antrenăm modele la această scară, fiecare procent din eficiența comunicării contează. TG990V3 își menține performanța stabilă chiar și pe măsură ce dimensiunea clusterului crește, ceea ce reprezintă un avantaj major.”

Proiectare I/O „Raportul de Aur”: Eliminarea blocajului de date în antrenamentul AI
O provocare persistentă în antrenamentul AI este faptul că GPU-urile de înaltă performanță rămân adesea subutilizate din cauza blocajelor I/O — lățime de bandă insuficientă a rețelei, debit limitat al stocării sau conducte lente de încărcare a datelor.
Pentru a remedia această problemă, Aethlumis a introdus o arhitectură rar întâlnită în industrie: 8 : 8 : 16 (GPU : NIC : NVMe):
• 400 Gbps lățime de bandă dedicată de rețea pentru fiecare GPU
• Două unități NVMe Gen4/Gen5 SSD independente pentru fiecare GPU
• O reducere de peste 60% a latenței în încărcarea datelor
O startup românească de AI care a participat la testarea timpurie a observat că utilizarea GPU-urilor a rămas constant între 94%–97%, semnificativ mai mare decât intervalul de 70–75% observat pe serverele lor existente.

Fiabilitate la nivel de cluster: MTTR sub 3 minute, scalare liniară până la 92%
Proiectat pentru sarcini de antrenament pe termen lung și la scară largă, TG990V3 dispune de o arhitectură complet modulară cu module GPU, ventilator, alimentare și rețea interschimbabile în funcțiune.
Testele efectuate de primii clienți au raportat:
• Timpul mediu de reparație (MTTR) redus de la 10–12 minute la sub 3 minute
• O disponibilitate a sistemului de 99,95% în timpul ciclurilor continue de antrenament 24/7
• Eficiență de scalare liniară de 92% în clustere cu mii de plăci
• Acest lucru asigură o fiabilitate fără precedent pentru întreprinderile care operează medii distribuite de antrenament la scară mare.
Indicatori de performanță în condiții reale (din partea primilor adoptatori)
• Reducerea cu 32% a timpului de antrenament pentru modele lingvistice de trilioane de parametri
• O îmbunătățire de peste 60% a debitului de încărcare a datelor
• Eficiență de scalare de 92% în clustere multi-node
• Disponibilitate de 99,95% în sarcini de durată lungă
Aplicațiile includ:
• Antrenarea modelelor lingvistice mari (LLM) (LLaMA, seria GPT etc.)
• Antrenarea modelelor multimodale (vizual, audio, video, 3D)
• Platforme enterprise de inteligență artificială și clustere de inferență
• Medii de calcul pentru cercetare la nivel universitar și național

Construirea următoarei generații de infrastructură AI
Dr. Li Zhang, Vicepreședinte Produs la Aethlumis, a concluzionat:
„TG990V3 nu este o simplă actualizare hardware. Reprezintă o optimizare la nivel de sistem a întregului flux de lucru pentru antrenarea modelelor mari — inclusiv arhitectura de interconectare, subsistemul I/O și operațiunile inteligente. L-am proiectat pentru a susține următorii trei ani de creștere accelerată a dimensiunii modelelor.”
TG990V3 este acum disponibil pentru implementare la scară enterprise și este deja utilizat pe mai multe platforme cloud și companii de inteligență artificială.