Richiedi un Preventivo Gratuito

Il nostro rappresentante ti contatterà a breve.
Email
Tel/WhatsApp
Nome
Nome dell'azienda
Messaggio
0/1000

Notizie

Homepage >  Notizie

Aethlumis svela il server AI di nuova generazione TG990V3, che offre fino al 40% di miglioramento nell'efficienza di addestramento di modelli su larga scala

2025.11.18

Shenzhen, Cina — 18 novembre 2025 — Mentre la domanda globale di potenza computazionale per l'IA continua a crescere, Aethlumis ha annunciato oggi il lancio del suo nuovo server AI di punta, il TG990V3. Dopo aver completato le prime fasi di distribuzione presso importanti aziende internet, istituti di ricerca sull'IA e fornitori di servizi cloud, il TG990V3 ha dimostrato significativi progressi nelle prestazioni per l'addestramento di modelli su larga scala. Nei test effettuati con carichi di lavoro da un trilione di parametri, il server ha raggiunto un miglioramento fino al 40% nell'efficienza complessiva di addestramento, riducendo i cicli di addestramento del 30%-32% rispetto alla generazione precedente.

1-1.jpg

L'infrastruttura per l'IA raggiunge un nuovo punto di svolta

Con la dimensione dei modelli passata negli ultimi due anni da miliardi a trilioni di parametri, il divario tra l'avanzamento degli algoritmi e l'infrastruttura computazionale è diventato sempre più evidente. Il CEO di Aethlumis, Wang Qihang, ha sottolineato durante l'evento di lancio:

«Il ritmo di evoluzione dei grandi modelli ha superato la velocità degli aggiornamenti tradizionali delle infrastrutture. Il TG990V3 è progettato per offrire una maggiore efficienza di addestramento senza aumentare i costi hardware o il consumo energetico, consentendo ai team di intelligenza artificiale di iterare più rapidamente e in modo più sostenibile.»

Gli analisti del settore osservano che la competizione sui server per l'IA si è spostata dall'allineamento grezzo dell'hardware all'ottimizzazione architetturale a livello di sistema, una direzione incarnata dal TG990V3.

2.jpg

 

01.jpg

Architettura Interconnessione ad Alta Efficienza: Utilizzo della larghezza di banda peer-to-peer superiore al 95% nell'addestramento di modelli con 1 trilione di parametri

Dotato di otto moduli GPU OAM basati sullo standard OAI 2.0, il TG990V3 adotta una topologia interconnessa multilivello di nuova generazione ottimizzata per l'addestramento distribuito su larga scala.

Nei test interni condotti da una importante azienda internet su un modello con un trilione di parametri:

• L'efficienza dell'interconnessione GPU-GPU è rimasta stabile tra il 95% e il 96%

• La latenza di sincronizzazione dei gradienti è diminuita del 27%

• La produttività totale del cluster è migliorata del 21%

Un direttore tecnico del laboratorio di valutazione dell'IA ha commentato:

"Durante l'addestramento di modelli su questa scala, ogni punto percentuale di efficienza nella comunicazione conta. Il TG990V3 mantiene prestazioni stabili anche con l'aumentare delle dimensioni del cluster, il che rappresenta un vantaggio significativo."


02.jpg

Progettazione del "Rapporto Aureo" I/O: eliminazione del collo di bottiglia dati nell'addestramento dell'IA

Una sfida costante nell'addestramento dell'IA è che le GPU ad alte prestazioni spesso rimangono sottoutilizzate a causa di colli di bottiglia I/O — larghezza di banda di rete insufficiente, throughput di archiviazione limitato o pipeline di caricamento dati lente.

Per risolvere questo problema, Aethlumis ha introdotto un'architettura 8 : 8 : 16 (GPU : NIC : NVMe), rara nel settore:

• 400 Gbps di larghezza di banda di rete dedicata per ogni GPU

• Due SSD NVMe indipendenti Gen4/Gen5 per ogni GPU

• Riduzione superiore al 60% della latenza di caricamento dei dati

Un'azienda startup nazionale specializzata in IA, partecipante ai test iniziali, ha osservato che l'utilizzo delle GPU è rimasto costantemente compreso tra il 94% e il 97%, sensibilmente più alto rispetto alla fascia del 70-75% registrata sui server attualmente in uso.


03.jpg

Affidabilità di Livello Cluster: MTTR Inferiore ai 3 Minuti, Scalabilità Lineare Fino al 92%

Progettato per carichi di lavoro di training a lunga durata e grande scala, il TG990V3 presenta un'architettura completamente modulare con moduli GPU, ventole, alimentazione e rete sostituibili a caldo.

Test effettuati dai primi clienti hanno riportato:

• Tempo Medio di Riparazione (MTTR) ridotto da 10–12 minuti a meno di 3 minuti

• Disponibilità del sistema al 99,95% durante cicli di training intensivi 24/7

• Efficienza di scalabilità lineare del 92% in cluster con migliaia di schede

• Questo garantisce un'affidabilità senza precedenti per le aziende che operano in ambienti di training distribuiti su larga scala.

 

Metriche di Prestazione nel Mondo Reale (da parte dei primi adottanti)

• Riduzione del 32% del tempo di training per modelli linguistici LLM con trilioni di parametri

• Miglioramento superiore al 60% del throughput di caricamento dati

• Efficienza di scalabilità del 92% in cluster multi-nodo

• Disponibilità del 99,95% in attività di lunga durata

Le applicazioni includono:

• Addestramento di modelli linguistici su larga scala (LLM) (LLaMA, serie GPT, ecc.)

• Addestramento di modelli multimodali (visione, audio, video, 3D)

• Piattaforme aziendali per l'IA e cluster di inferenza

• Ambienti di calcolo per la ricerca universitaria e a livello nazionale

3.jpg

Costruire la prossima generazione di infrastrutture per l'IA

Dr. Li Zhang, Vice Presidente del Prodotto presso Aethlumis, ha concluso:

“Il TG990V3 non è un semplice aggiornamento hardware. Rappresenta un'ottimizzazione a livello di sistema dell'intero flusso di lavoro per l'addestramento di grandi modelli — inclusa l'architettura di interconnessione, il sottosistema I/O e le operazioni intelligenti. È stato progettato per supportare i prossimi tre anni di crescita accelerata nella scala dei modelli.”

Il TG990V3 è ora disponibile per il deployment su scala aziendale ed è già in uso su diverse piattaforme cloud e aziende specializzate in IA.