Shenzhen, Chine — 18 novembre 2025 — Alors que la demande mondiale de puissance informatique en intelligence artificielle continue d'augmenter fortement, Aethlumis a annoncé aujourd'hui le lancement de son nouveau serveur phare dédié à l'IA, le TG990V3. Après avoir été déployé en phase initiale chez de grandes entreprises internet, des institutions de recherche en IA et des fournisseurs de services cloud, le TG990V3 a démontré des percées significatives en matière de performances pour l'entraînement de modèles à grande échelle. Lors de tests impliquant des charges de travail de l'ordre du trillion de paramètres, le serveur a amélioré l'efficacité globale de l'entraînement jusqu'à 40 %, réduisant les cycles d'entraînement de 30 % à 32 % par rapport à la génération précédente.

L'infrastructure IA atteint un nouveau point critique
Alors que la taille des modèles est passée de milliards à trillions de paramètres au cours des deux dernières années, l'écart entre l'avancée des algorithmes et celle de l'infrastructure informatique devient de plus en plus manifeste. Le PDG d'Aethlumis, Wang Qihang, a souligné lors de l'événement de lancement :
« Le rythme d'évolution des grands modèles a dépassé la vitesse des mises à niveau traditionnelles de l'infrastructure. Le TG990V3 est conçu pour offrir une efficacité d'entraînement supérieure sans augmenter le coût matériel ni la consommation d'énergie, permettant aux équipes d'intelligence artificielle d'itérer plus rapidement et de manière plus durable. »
Des analystes du secteur soulignent que la concurrence sur les serveurs d'IA s'est déplacée du simple cumul de puissance matérielle vers l'optimisation architecturale au niveau système, une orientation que le TG990V3 incarne.


Architecture interconnectée haute efficacité : utilisation de la bande passante pair-à-pair à plus de 95 % lors de l'entraînement de modèles de 1 billion de paramètres
Équipé de huit modules GPU OAM basés sur la norme OAI 2.0, le TG990V3 adopte une topologie d'interconnexion multiniveau de nouvelle génération optimisée pour l'entraînement distribué à grande échelle.
Lors de tests internes menés par une entreprise internet leader sur un modèle d'un billion de paramètres :
• L'efficacité de l'interconnexion GPU-à-GPU est restée stable entre 95 et 96 %
• La latence de synchronisation des gradients a diminué de 27 %
• Le débit total du cluster a augmenté de 21 %
Un directeur technique du laboratoire d'évaluation en IA a commenté :
« Lors de l'entraînement de modèles à cette échelle, chaque point de pourcentage d'efficacité de communication compte. Le TG990V3 maintient des performances stables même lorsque la taille du cluster augmente, ce qui constitue un avantage majeur. »

Conception du « ratio doré » E/S : éliminer le goulot d'étranglement des données dans l'entraînement de l'IA
Un défi persistant dans l'entraînement de l'IA est que les GPU hautes performances restent souvent sous-utilisés en raison de goulots d'étranglement au niveau des entrées/sorties — bande passante réseau insuffisante, débit de stockage limité ou pipelines de chargement de données lents.
Pour y remédier, Aethlumis a introduit une architecture 8 : 8 : 16 (GPU : NIC : NVMe) rare dans l'industrie :
• 400 Gbps de bande passante réseau dédiée par GPU
• Deux SSD NVMe indépendants Gen4/Gen5 par GPU
• Réduction de plus de 60 % de la latence de chargement des données
Une startup nationale spécialisée en IA ayant participé aux premiers tests a noté que l'utilisation des GPU restait constamment comprise entre 94 % et 97 %, nettement plus élevée que la fourchette de 70 à 75 % observée sur leurs serveurs existants.

Fiabilité de niveau cluster : MTTR inférieur à 3 minutes, montée en charge linéaire jusqu'à 92 %
Conçu pour des charges de travail d'entraînement intensives et de longue durée, le TG990V3 intègre une architecture entièrement modulaire avec des modules GPU, ventilateurs, alimentation et réseaux interchangeables à chaud.
Les premiers tests clients ont indiqué :
• Temps moyen de réparation (MTTR) réduit de 10 à 12 minutes à moins de 3 minutes
• Disponibilité du système à 99,95 % pendant des cycles d'entraînement soutenus 24h/24 et 7j/7
• Efficacité de montée en charge linéaire de 92 % dans les clusters de milliers de cartes
• Cela garantit une fiabilité sans précédent pour les entreprises exploitant des environnements d'entraînement distribués à grande échelle.
Indicateurs de performance en conditions réelles (provenant des premiers utilisateurs)
• Réduction de 32 % du temps d'entraînement pour les grands modèles linguistiques de l'ordre du trillion de paramètres
• Amélioration de plus de 60 % du débit de chargement des données
• Efficacité de mise à l'échelle de 92 % dans les clusters multi-nœuds
• Disponibilité de 99,95 % pour les tâches de longue durée
Les applications incluent :
• Entraînement de grands modèles linguistiques (LLM) (LLaMA, série GPT, etc.)
• Entraînement de modèles multimodaux (vision, audio, vidéo, 3D)
• Plates-formes d'intelligence artificielle d'entreprise et clusters d'inférence
• Environnements informatiques de recherche universitaires et nationaux

Construire la prochaine génération d'infrastructures d'IA
Dr Li Zhang, Vice-Président produit chez Aethlumis, a conclu :
« Le TG990V3 n'est pas un simple renouvellement matériel. Il représente une optimisation au niveau système de l'ensemble du pipeline d'entraînement de grands modèles — y compris l'architecture d'interconnexion, le sous-système d'E/S et les opérations intelligentes. Nous l'avons conçu pour soutenir les trois prochaines années de croissance accélérée de l'échelle des modèles. »
Le TG990V3 est désormais disponible pour un déploiement à l'échelle entreprise et est déjà utilisé sur plusieurs plateformes cloud et entreprises spécialisées en IA.