中国深セン — 2025年11月18日 — グローバルでAI計算能力への需要が高まる中、Aethlumisは本日、新型フラグシップAIサーバーTG990V3の発売を発表しました。主要なインターネット企業、AI研究機関、クラウドサービスプロバイダーでの初期導入を完了したTG990V3は、大規模モデルの学習において顕著な性能向上を実現しました。1兆パラメータ規模のワークロードを対象としたテストでは、前世代比で全体的な学習効率が最大40%向上し、学習サイクルが30%~32%短縮されました。

AIインフラが新たな転換点に到達
ここ2年間でモデルの規模が数十億から数兆パラメータへと拡大する中、アルゴリズムの進展と計算インフラの間に明確なギャップが生じてきました。AethlumisのCEOである王啓航(ワン・チーハン)氏は、発表会にて次のように強調しました:
「大規模モデルの進化スピードは、従来のインフラ整備の速度をすでに上回っています。TG990V3は、ハードウェアコストや消費電力を増加させることなく、より高い学習効率を実現するために設計されており、AIチームがより迅速かつ持続可能にイテレーションできるよう支援します。」
業界アナリストによると、AIサーバーの競争は、単なるハードウェア性能の積み重ねから、システムレベルのアーキテクチャ最適化へと移行しており、TG990V3はまさにこの方向性を体現しています。


高効率インターコネクトアーキテクチャ:1兆パラメータ学習における95%以上のピアツーピア帯域利用率
OAI 2.0規格に基づく8つのOAM GPUモジュールを搭載し、大規模分散学習に最適化された次世代マルチティアインターコネクトトポロジーを採用しています。
ある主要インターネット企業による1兆パラメータモデルでの社内テストにおいて:
• GPU間インターコネクト効率は95~96%で安定
• グラデーション同期の遅延が27%削減
• クラスタ全体のスループットが21%向上
評価を行ったAIラボの技術ディレクターは次のようにコメントしています:
「この規模でのモデル学習においては、通信効率の数値が1パーセント向上するだけでも大きな意味を持つ。TG990V3はクラスタサイズが拡大しても安定した性能を維持できるため、大きなアドバンテージがある。」

I/O「ゴールデン・レシオ」設計:AI学習におけるデータボトルネックの解消
AI学習における長年の課題として、高性能GPUがI/Oボトルネック(ネットワーク帯域の不足、ストレージスループットの制限、またはデータ読み込みパイプラインの遅さ)により十分に活用されていないケースがあります。
この問題に対処するため、Aethlumisは業界では稀な8 : 8 : 16(GPU : NIC : NVMe)のアーキテクチャを採用しました。
• GPUごとに専用400Gbpsのネットワーク帯域
• GPUごとに独立したNVMe Gen4/Gen5 SSDを2台搭載
• データ読み込みレイテンシを60%以上削減
初期テストに参加した国内のAIスタートアップによると、GPU使用率は一貫して94%~97%の間で維持されており、既存のサーバーで見られる70~75%の範囲と比べて著しく高い水準となっています。

クラスターグレードの信頼性:MTTRは3分未満、92%までのリニアスケーリング
長時間・大規模なトレーニングワークロード向けに設計されたTG990V3は、GPU、ファン、電源、ネットワーキングモジュールをホットスワップ可能にする完全モジュラー構造を備えています。
初期顧客のテスト結果:
• 平均修理時間(MTTR)を10~12分から3分未満に短縮
• 持続的な24時間365日稼働トレーニングサイクル中で99.95%のシステム可用性
• 千枚単位のカードクラスターにおいて92%のリニアスケーリング効率
• 大規模分散型トレーニング環境を運用する企業にとって、前例のない信頼性を実現します。
実際のパフォーマンス指標(初期導入ユーザーによる報告)
• 1兆パラメータ級の大規模言語モデル(LLM)のトレーニング時間で32%の短縮
• データ読み込みスループットで60%以上の改善
• マルチノードクラスターでの92%のスケーリング効率
• 長時間タスクにおける99.95%の可用性
アプリケーションには以下が含まれます:
• 大規模言語モデル(LLM)の学習(LLaMA、GPTシリーズなど)
• マルチモーダルモデルの学習(画像、音声、動画、3D)
• エンタープライズAIプラットフォームおよび推論クラスター
• 大学および国家レベルの研究用コンピューティング環境

次世代AIインフラの構築
Aethlumis製品担当副社長である張莉博士は締めくくりました:
「TG990V3は単なるハードウェアの刷新ではありません。これは、インターコネクトアーキテクチャ、I/Oサブシステム、インテリジェント運用を含む、大規模モデル学習パイプライン全体のシステムレベルでの最適化を意味しています。我々は、今後3年間におけるモデル規模の加速的成長をサポートするように設計しました。」
TG990V3は現在、エンタープライズ規模での導入が可能となっており、すでに複数のクラウドプラットフォームやAI企業で使用されています。