Шэньчжэнь, Китай — 18 ноября 2025 года — По мере роста глобального спроса на вычислительные мощности для ИИ компания Aethlumis объявила сегодня о запуске своего нового флагманского сервера для ИИ — TG990V3. После завершения ранних развертываний в крупных интернет-компаниях, научно-исследовательских центрах по ИИ и поставщиках облачных услуг, сервер TG990V3 показал значительный прорыв в производительности при обучении масштабных моделей. В тестах с рабочими нагрузками триллионного уровня параметров сервер достиг улучшения общей эффективности обучения до 40%, а циклы обучения сократились на 30–32% по сравнению с предыдущим поколением.

Инфраструктура ИИ достигла нового переломного момента
Поскольку за последние два года размер моделей увеличился от миллиардов до триллионов параметров, разрыв между развитием алгоритмов и вычислительной инфраструктурой становится всё более очевидным. Генеральный директор Aethlumis Ван Цихан подчеркнул во время презентации:
«Темпы развития крупных моделей превзошли скорость традиционного обновления инфраструктуры. TG990V3 разработан для обеспечения более высокой эффективности обучения без увеличения затрат на оборудование или энергопотребления, что позволяет командам ИИ быстрее и устойчивее проводить итерации».
Аналитики отрасли отмечают, что конкуренция в области серверов ИИ сместилась с простого наращивания аппаратных компонентов на оптимизацию архитектуры на системном уровне — направление, которое воплощает TG990V3.


Архитектура высокоэффективного взаимодействия: использование одноранговой пропускной способности более 95% при обучении модели с триллионом параметров
Оснащённый восемью модулями OAM GPU на основе стандарта OAI 2.0, TG990V3 использует многоуровневую интерконнектную топологию следующего поколения, оптимизированную для масштабного распределённого обучения.
Во внутренних испытаниях, проведённых ведущей интернет-компанией на модели с триллионом параметров:
• Эффективность соединения GPU-GPU оставалась стабильной на уровне 95–96%
• Задержка синхронизации градиентов снизилась на 27%
• Общая пропускная способность кластера выросла на 21%
Технический директор оценивающей ИИ-лаборатории прокомментировал:
«При обучении моделей такого масштаба каждый процентный пункт эффективности коммуникации имеет значение. TG990V3 сохраняет стабильную производительность даже при увеличении размера кластера, что является серьезным преимуществом».

Конструкция с «золотым соотношением» по каналам ввода-вывода: устранение узких мест с данными при обучении ИИ
Одной из постоянных проблем при обучении ИИ является то, что высокопроизводительные GPU зачастую используются не в полную силу из-за узких мест в системе ввода-вывода — недостаточной пропускной способности сети, ограниченной пропускной способностью хранилища или медленных конвейерах загрузки данных.
Для решения этой проблемы компания Aethlumis внедрила редкую в отрасли архитектуру 8 : 8 : 16 (GPU : NIC : NVMe):
• 400 Гбит/с выделенной сетевой пропускной способности на каждый GPU
• Два независимых NVMe SSD Gen4/Gen5 на каждый GPU
• Снижение задержки загрузки данных более чем на 60%
Отечественный ИИ-стартап, участвовавший в раннем тестировании, отметил, что использование GPU оставалось стабильным в диапазоне 94–97%, что значительно выше диапазона 70–75%, наблюдаемого на их существующих серверах.

Надежность уровня кластера: среднее время восстановления менее 3 минут, линейное масштабирование до 92%
Разработанная для длительных и масштабных рабочих нагрузок при обучении, модель TG990V3 оснащена полностью модульной архитектурой с горячей заменой модулей GPU, вентиляторов, питания и сетевых компонентов.
Результаты тестов первых клиентов:
• Среднее время восстановления (MTTR) сократилось с 10–12 минут до менее чем 3 минут
• Доступность системы 99,95% в течение непрерывных круглосуточных циклов обучения
• Эффективность линейного масштабирования 92% в кластерах из тысяч видеокарт
• Это обеспечивает беспрецедентную надежность для предприятий, эксплуатирующих крупные распределенные среды обучения.
Показатели производительности в реальных условиях (по данным первых пользователей)
• Сокращение времени обучения на 32% для LLM с триллионом параметров
• Улучшение пропускной способности загрузки данных более чем на 60%
• Эффективность масштабирования 92% в многонодовых кластерах
• Доступность 99,95% при длительных задачах
Приложения включают:
• Обучение больших языковых моделей (LLM) (LLaMA, серия GPT и др.)
• Обучение мультимодальных моделей (визуальные данные, аудио, видео, 3D)
• Корпоративные платформы искусственного интеллекта и кластеры для вывода результатов
• Вычислительные среды для исследований в университетах и на национальном уровне

Создание инфраструктуры искусственного интеллекта следующего поколения
Доктор Ли Чжан, вице-президент по продуктам в компании Aethlumis, завершил:
«TG990V3 — это не просто обновление оборудования. Это системная оптимизация всего конвейера обучения крупных моделей, включая архитектуру межсоединений, подсистему ввода-вывода и интеллектуальные операции. Мы разработали его для поддержки ускоренного роста масштабов моделей в ближайшие три года»
Модель TG990V3 теперь доступна для развертывания в корпоративных масштабах и уже используется на нескольких облачных платформах и в компаниях, специализирующихся на ИИ.