Shenzhen, China — 18 de noviembre de 2025 — Mientras la demanda global de potencia informática en IA continúa aumentando, Aethlumis anunció hoy el lanzamiento de su nuevo servidor estrella de inteligencia artificial, el TG990V3. Tras completar despliegues en fases iniciales en importantes empresas de internet, instituciones de investigación en IA y proveedores de servicios en la nube, el TG990V3 ha demostrado avances significativos en el entrenamiento de modelos a gran escala. En pruebas con cargas de trabajo de billones de parámetros, el servidor logró una mejora de hasta el 40 % en la eficiencia general del entrenamiento, reduciendo los ciclos de entrenamiento entre un 30 % y un 32 % en comparación con la generación anterior.

La infraestructura de IA alcanza un nuevo punto de inflexión
Con el aumento del tamaño de los modelos, que ha pasado de miles de millones a billones de parámetros en los últimos dos años, la brecha entre el avance de los algoritmos y la infraestructura computacional se ha vuelto cada vez más evidente. El CEO de Aethlumis, Wang Qihang, destacó durante el evento de lanzamiento:
«El ritmo de evolución de los modelos grandes ha superado la velocidad de las actualizaciones tradicionales de infraestructura. El TG990V3 está diseñado para ofrecer una mayor eficiencia de entrenamiento sin aumentar el costo del hardware ni el consumo de energía, permitiendo a los equipos de IA iterar más rápido y de forma más sostenible.»
Analistas del sector señalan que la competencia en servidores de IA ha pasado de la acumulación bruta de hardware a la optimización arquitectónica a nivel de sistema, una dirección que encarna el TG990V3.


Arquitectura de Interconexión de Alta Eficiencia: más del 95 % de utilización del ancho de banda entre pares en entrenamiento de modelos de un billón de parámetros
Equipado con ocho módulos GPU OAM basados en el estándar OAI 2.0, el TG990V3 adopta una topología de interconexión multinivel de nueva generación optimizada para entrenamiento distribuido a gran escala.
En pruebas internas realizadas por una importante empresa de internet en un modelo de un billón de parámetros:
• La eficiencia de interconexión GPU-a-GPU se mantuvo estable entre el 95 % y el 96 %
• La latencia de sincronización de gradientes disminuyó un 27 %
• El rendimiento total del clúster mejoró un 21 %
Un director técnico del laboratorio de evaluación de IA comentó:
“Al entrenar modelos a esta escala, cada punto porcentual de eficiencia en la comunicación importa. El TG990V3 mantiene un rendimiento estable incluso cuando el tamaño del clúster aumenta, lo cual es una ventaja importante.”

Diseño de la "Relación Áurea" de E/S: eliminación del cuello de botella de datos en el entrenamiento de IA
Un desafío persistente en el entrenamiento de IA es que las GPU de alto rendimiento a menudo permanecen infrautilizadas debido a cuellos de botella en E/S — ancho de banda de red insuficiente, rendimiento limitado del almacenamiento o tuberías de carga de datos lentas.
Para abordar esto, Aethlumis introdujo una arquitectura 8 : 8 : 16 (GPU : NIC : NVMe) poco común en la industria:
• 400 Gbps de ancho de banda de red dedicado por GPU
• Dos unidades SSD NVMe Gen4/Gen5 independientes por GPU
• Más del 60 % de reducción en la latencia de carga de datos
Una startup nacional de IA que participó en las pruebas iniciales señaló que la utilización de la GPU se mantuvo consistentemente entre el 94 % y el 97 %, significativamente más alto que el rango del 70 % al 75 % observado en sus servidores actuales.

Confiabilidad de Clúster: MTTR Inferior a 3 Minutos, Escalado Lineal Hasta el 92%
Diseñado para cargas de trabajo de entrenamiento a gran escala y larga duración, el TG990V3 cuenta con una arquitectura completamente modular con módulos intercambiables en caliente de GPU, ventilador, alimentación y red.
Pruebas de clientes iniciales informaron:
• Tiempo Medio de Reparación (MTTR) reducido de 10–12 minutos a menos de 3 minutos
• Disponibilidad del sistema del 99,95 % durante ciclos de entrenamiento sostenidos 24/7
• Eficiencia de escalado lineal del 92 % en clústeres de miles de tarjetas
• Esto garantiza una confiabilidad sin precedentes para empresas que operan entornos de entrenamiento distribuidos a gran escala.
Métricas de Rendimiento en el Mundo Real (de usuarios iniciales)
• Reducción del 32 % en el tiempo de entrenamiento para modelos lingüísticos de billones de parámetros
• Mejora superior al 60 % en el rendimiento de carga de datos
• 92 % de eficiencia de escalado en clústeres multi-nodo
• 99,95 % de disponibilidad en tareas de larga duración
Las aplicaciones incluyen:
• Entrenamiento de modelos de lenguaje grandes (LLM) (LLaMA, serie GPT, etc.)
• Entrenamiento de modelos multimodales (visión, audio, video, 3D)
• Plataformas empresariales de IA y clústeres de inferencia
• Entornos informáticos para investigación universitaria y a nivel nacional

Construyendo la próxima generación de infraestructura de IA
Dr. Li Zhang, Vicepresidente de Producto en Aethlumis, concluyó:
“El TG990V3 no es un simple actualización de hardware. Representa una optimización a nivel de sistema de toda la canalización de entrenamiento de modelos grandes —incluyendo la arquitectura de interconexión, el subsistema de E/S y las operaciones inteligentes. Lo diseñamos para soportar los próximos tres años de crecimiento acelerado en la escala de modelos.”
El TG990V3 ya está disponible para despliegue a escala empresarial y ya se encuentra en uso en varias plataformas en la nube y empresas de IA.