Shenzhen, China — 18 November 2025 — Dengan permintaan kuasa pengkomputeran AI global terus meningkat, Aethlumis hari ini mengumumkan pelancaran pelayan AI utama baharu mereka, TG990V3. Setelah selesai diterapkan pada peringkat awal di kalangan syarikat internet utama, institusi penyelidikan AI, dan pembekal perkhidmatan awan, TG990V3 menunjukkan lompatan prestasi yang ketara dalam latihan model berskala besar. Dalam ujian yang melibatkan beban kerja trilion parameter, pelayan ini mencapai peningkatan sehingga 40% dalam kecekapan latihan keseluruhan, dengan kitaran latihan dipendekkan sebanyak 30%–32% berbanding generasi sebelumnya.

Infrastruktur AI Mencapai Titik Perubahan Baharu
Dengan saiz model yang berkembang daripada bilion kepada trilion parameter dalam tempoh dua tahun kebelakangan ini, jurang antara kemajuan algoritma dan infrastruktur pengkomputeran semakin ketara. CEO Aethlumis, Wang Qihang, menekankan semasa acara pelancaran:
kelajuan evolusi model besar telah melampaui kelajuan pengemaskinian infrastruktur tradisional. TG990V3 direka untuk memberikan kecekapan latihan yang lebih tinggi tanpa meningkatkan kos perkakasan atau penggunaan kuasa, membolehkan pasukan AI mengitari dengan lebih pantas dan mampan.
Penganalisis industri mencatat bahawa persaingan pelayan AI telah berubah daripada penindanan perkakasan kasar kepada pengoptimuman seni bina peringkat sistem, satu arah yang diwujudkan oleh TG990V3.


Seni Bina Interkoneksi Berkecekapan Tinggi: Pemanfaatan Lebar Jalur Rakan-ke-Rakan Melebihi 95% dalam Latihan Model 1T-Parameter
Dilengkapi lapan modul GPU OAM berdasarkan piawaian OAI 2.0, TG990V3 menggunakan topologi interkoneksi pelbagai peringkat generasi seterusnya yang dioptimumkan untuk latihan berskala besar secara taburan.
Dalam ujian dalaman yang dijalankan oleh sebuah syarikat internet terkemuka ke atas model trilion-parameter:
• Kecekapan interkonek GPU-ke-GPU kekal stabil pada 95–96%
• Latensi penyegerakan gradien menurun sebanyak 27%
• Keluaran jumlah gugusan meningkat sebanyak 21%
Seorang pengarah teknikal dari makmal AI yang menilai memberi komen:
"Apabila melatih model pada skala sebegini, setiap peratus kecekapan komunikasi adalah penting. TG990V3 mengekalkan prestasi yang stabil walaupun saiz kelompok berkembang, yang merupakan satu kelebihan besar."

Reka Bentuk "Nisbah Emas" I/O: Menghapuskan Kekangan Data dalam Latihan AI
Satu cabaran berterusan dalam latihan AI ialah GPU berprestasi tinggi kerap tidak digunakan sepenuhnya disebabkan oleh kekangan I/O — lebar jalur rangkaian yang tidak mencukupi, ketumpatan storan yang terhad, atau paip pemuatan data yang perlahan.
Untuk mengatasi ini, Aethlumis memperkenalkan arkitektur 8 : 8 : 16 (GPU : NIC : NVMe) yang jarang ditemui dalam industri:
• 400 Gbps lebar jalur rangkaian khusus bagi setiap GPU
• Dua cakera SSD NVMe Gen4/Gen5 yang bersendirian bagi setiap GPU
• Lebih 60% pengurangan dalam kelewatan pemuatan data
Sebuah permulaan domestik AI yang mengambil bahagian dalam ujian awal mencatatkan penggunaan GPU kekal konsisten antara 94%–97%, jauh lebih tinggi daripada julat 70–75% yang dilihat pada pelayan sedia ada mereka.

Kebolehpercayaan Gred Kelompok: MTTR Kurang 3 Minit, Penskalaan Linear Sehingga 92%
Direka untuk beban kerja latihan skala besar dan jangka panjang, TG990V3 menampilkan arkitektur sepenuhnya modular dengan modul GPU, kipas, kuasa, dan rangkaian yang boleh ditukar secara panas (hot-swappable).
Ujian pelanggan awal melaporkan:
• Masa Purata untuk Baikpulih (MTTR) berkurang daripada 10–12 minit kepada kurang 3 minit
• Ketersediaan sistem 99.95% sepanjang kitaran latihan berterusan 24/7
• Kecekapan penskalaan linear 92% dalam kelompok beribu-ribu kad
• Ini memastikan kebolehpercayaan yang belum pernah ada sebelum ini bagi perusahaan yang mengendalikan persekitaran latihan teragih berskala besar.
Metrik Prestasi Dunia Nyata (daripada pengguna awal)
• Pengurangan 32% dalam masa latihan untuk LLM berparameter trilion
• Peningkatan lebih 60% dalam kelulusan pemuatan data
• Kecekapan penskalaan 92% dalam kelompok pelbagai nod
• Ketersediaan 99.95% dalam tugas jangka panjang
Aplikasi Termasuk:
• Latihan Model Bahasa Besar (LLM) (LLaMA, siri GPT, dll.)
• Latihan model multimodal (penglihatan, audio, video, 3D)
• Platform AI perusahaan dan kelompok inferens
• Persekitaran pengkomputeran penyelidikan universiti dan peringkat kebangsaan

Membina Generasi Infrastruktur AI Seterusnya
Dr. Li Zhang, Timbalan Presiden Produk di Aethlumis, mengulas:
“TG990V3 bukan sekadar kemas kini perkakasan biasa. Ia mewakili pengoptimuman pada peringkat sistem untuk seluruh paip saluran latihan model besar — termasuk arkitektur interkoneksi, subsistem I/O, dan operasi pintar. Kami mereka bentuknya untuk menyokong pertumbuhan pesat skala model bagi tiga tahun akan datang.”
TG990V3 kini tersedia untuk pemasangan berskala perusahaan dan sudah digunakan merentasi beberapa platform awan dan syarikat AI.