Shenzhen, China — 18 de novembro de 2025 — Com a demanda global por poder computacional de IA continuando a crescer, a Aethlumis anunciou hoje o lançamento de seu novo servidor de alto desempenho para IA, o TG990V3. Após concluir implantações iniciais em grandes empresas de internet, instituições de pesquisa em IA e provedores de serviços em nuvem, o TG990V3 demonstrou avanços significativos no treinamento de modelos em larga escala. Em testes envolvendo cargas de trabalho com trilhões de parâmetros, o servidor alcançou até 40% de melhoria na eficiência geral de treinamento, com ciclos de treinamento reduzidos em 30%–32% em comparação com a geração anterior.

A Infraestrutura de IA Alcança um Novo Ponto de Inflexão
Com o aumento do tamanho dos modelos, passando de bilhões para trilhões de parâmetros nos últimos dois anos, a lacuna entre o avanço dos algoritmos e a infraestrutura computacional tornou-se cada vez mais evidente. O CEO da Aethlumis, Wang Qihang, enfatizou durante o evento de lançamento:
o ritmo de evolução dos grandes modelos superou a velocidade das atualizações tradicionais de infraestrutura. O TG990V3 foi projetado para oferecer maior eficiência de treinamento sem aumentar o custo de hardware ou o consumo de energia, permitindo que as equipes de IA iterem mais rapidamente e de forma mais sustentável.
Analistas do setor observam que a competição em servidores de IA mudou da simples acumulação de hardware bruto para a otimização arquitetônica em nível de sistema, uma direção que o TG990V3 incorpora.


Arquitetura de Interconexão de Alta Eficiência: Utilização de largura de banda ponto a ponto superior a 95% no treinamento de modelo com 1 trilhão de parâmetros
Equipado com oito módulos GPU OAM baseados no padrão OAI 2.0, o TG990V3 adota uma topologia de interconexão multinível de nova geração otimizada para treinamento distribuído em larga escala.
Em testes internos realizados por uma empresa de internet líder em um modelo de trilhão de parâmetros:
• A eficiência da interconexão GPU-a-GPU permaneceu estável entre 95–96%
• A latência de sincronização de gradientes caiu em 27%
• A produtividade total do cluster aumentou em 21%
Um diretor técnico do laboratório de avaliação de IA comentou:
“Ao treinar modelos nesta escala, cada ponto percentual de eficiência na comunicação importa. O TG990V3 mantém desempenho estável mesmo com o aumento do tamanho do cluster, o que é uma grande vantagem.”

Design da "Proporção Áurea" de I/O: Eliminando o gargalo de dados no treinamento de IA
Um desafio persistente no treinamento de IA é que GPUs de alto desempenho muitas vezes permanecem subutilizadas devido a gargalos de I/O — largura de banda de rede insuficiente, baixa taxa de transferência de armazenamento ou pipelines lentos de carregamento de dados.
Para resolver isso, a Aethlumis introduziu uma arquitetura rara na indústria de 8 : 8 : 16 (GPU : NIC : NVMe):
• 400 Gbps de largura de banda de rede dedicada por GPU
• Dois SSDs NVMe Gen4/Gen5 independentes por GPU
• Mais de 60% de redução na latência de carregamento de dados
Uma startup nacional de IA que participou dos testes iniciais observou que a utilização da GPU permaneceu consistentemente entre 94%–97%, significativamente mais alta que a faixa de 70–75% observada em seus servidores atuais.

Confiabilidade de Nível Cluster: MTTR Abaixo de 3 Minutos, Escalonamento Linear até 92%
Projetado para cargas de trabalho de treinamento em larga escala e longa duração, o TG990V3 possui uma arquitetura totalmente modular com módulos de GPU, ventilador, energia e rede substituíveis em operação.
Testes com clientes iniciais relataram:
• Tempo Médio de Reparo (MTTR) reduzido de 10–12 minutos para menos de 3 minutos
• Disponibilidade do sistema de 99,95% durante ciclos sustentados de treinamento 24/7
• Eficiência de escalonamento linear de 92% em clusters de milhares de placas
• Isso garante uma confiabilidade sem precedentes para empresas que operam ambientes distribuídos de grande porte.
Métricas de Desempenho no Mundo Real (de usuários iniciais)
• Redução de 32% no tempo de treinamento para LLMs de trilhões de parâmetros
• Melhoria de mais de 60% na taxa de transferência de carregamento de dados
• 92% de eficiência de escalonamento em clusters multi-nó
• 99,95% de disponibilidade em tarefas de longa duração
As aplicações incluem:
• Treinamento de Modelos de Linguagem de Grande Porte (LLM) (LLaMA, série GPT, etc.)
• Treinamento de modelos multimodais (visão, áudio, vídeo, 3D)
• Plataformas empresariais de IA e clusters de inferência
• Ambientes computacionais de pesquisa universitários e em nível nacional

Construindo a Próxima Geração de Infraestrutura de IA
Dr. Li Zhang, Vice-Presidente de Produto na Aethlumis, concluiu:
“O TG990V3 não é apenas uma atualização de hardware. Representa uma otimização em nível de sistema de todo o pipeline de treinamento de modelos grandes — incluindo arquitetura de interconexão, subsistema de I/O e operações inteligentes. Projetamos isso para suportar os próximos três anos de crescimento acelerado na escala dos modelos.”
O TG990V3 já está disponível para implantação em escala empresarial e já está em uso em várias plataformas de nuvem e empresas de IA.