Dapatkan Penawaran Gratis

Perwakilan kami akan segera menghubungi Anda.
Email
Tel/WhatsApp
Nama
Nama Perusahaan
Pesan
0/1000

Berita

Beranda >  Berita

Aethlumis Meluncurkan Server AI Generasi Berikutnya TG990V3, Memberikan Peningkatan Hingga 40% dalam Efisiensi Pelatihan Model Skala Besar

2025.11.18

Shenzhen, Tiongkok — 18 November 2025 — Seiring meningkatnya permintaan global terhadap daya komputasi AI, Aethlumis hari ini mengumumkan peluncuran server AI andalannya yang baru, TG990V3. Setelah menyelesaikan penyebaran tahap awal di berbagai perusahaan internet besar, lembaga penelitian AI, dan penyedia layanan cloud, TG990V3 menunjukkan terobosan kinerja yang signifikan dalam pelatihan model skala besar. Dalam pengujian yang melibatkan beban kerja parameter triliunan, server ini mencapai peningkatan efisiensi pelatihan keseluruhan hingga 40%, dengan siklus pelatihan dipersingkat sebesar 30%–32% dibandingkan generasi sebelumnya.

1-1.jpg

Infrastruktur AI Mencapai Titik Balik Baru

Dengan ukuran model yang berkembang dari miliaran hingga triliunan parameter selama dua tahun terakhir, kesenjangan antara kemajuan algoritma dan infrastruktur komputasi menjadi semakin nyata. CEO Aethlumis, Wang Qihang, menekankan dalam acara peluncuran:

"Laju evolusi model besar telah melampaui kecepatan peningkatan infrastruktur tradisional. TG990V3 dirancang untuk memberikan efisiensi pelatihan yang lebih tinggi tanpa meningkatkan biaya perangkat keras atau konsumsi daya, memungkinkan tim AI melakukan iterasi lebih cepat dan lebih berkelanjutan."

Analis industri mencatat bahwa persaingan server AI telah bergeser dari penumpukan perangkat keras mentah ke optimasi arsitektur pada level sistem, suatu arah yang diwujudkan oleh TG990V3.

2.jpg

 

01.jpg

Arsitektur Interkoneksi Ber-Efisiensi Tinggi: Pemanfaatan Bandwidth Peer-to-Peer 95%+ dalam Pelatihan Parameter 1T

Dilengkapi delapan modul GPU OAM berdasarkan standar OAI 2.0, TG990V3 mengadopsi topologi interkoneksi multi-tier generasi berikutnya yang dioptimalkan untuk pelatihan distribusi skala besar.

Dalam pengujian internal yang dilakukan oleh perusahaan internet terkemuka pada model dengan parameter triliunan:

• Efisiensi interkoneksi GPU-ke-GPU tetap stabil di kisaran 95–96%

• Latensi sinkronisasi gradien turun sebesar 27%

• Total throughput klaster meningkat sebesar 21%

Seorang direktur teknis dari laboratorium AI yang mengevaluasi berkomentar:

“Saat melatih model dalam skala sebesar ini, setiap persentase efisiensi komunikasi sangat berarti. TG990V3 mempertahankan kinerja yang stabil bahkan saat ukuran klaster bertambah, yang merupakan keunggulan besar.”


02.jpg

Desain Rasio Emas I/O: Menghilangkan Bottleneck Data dalam Pelatihan AI

Tantangan yang terus-menerus muncul dalam pelatihan AI adalah bahwa GPU berkinerja tinggi sering kali tidak termanfaatkan secara optimal karena bottleneck I/O — bandwidth jaringan yang tidak mencukupi, throughput penyimpanan terbatas, atau saluran pemuatan data yang lambat.

Untuk mengatasi hal ini, Aethlumis memperkenalkan arsitektur langka di industri yaitu 8 : 8 : 16 (GPU : NIC : NVMe):

• 400 Gbps bandwidth jaringan khusus per GPU

• Dua SSD NVMe Gen4/Gen5 independen per GPU

• Lebih dari 60% pengurangan latensi pemuatan data

Sebuah startup AI lokal yang berpartisipasi dalam pengujian awal mencatat bahwa pemanfaatan GPU tetap konsisten antara 94%–97%, jauh lebih tinggi dibandingkan kisaran 70–75% pada server mereka saat ini.


03.jpg

Keandalan Kelas Klaster: MTTR Di Bawah 3 Menit, Penskalaan Linier Hingga 92%

Dirancang untuk beban kerja pelatihan skala besar dengan durasi panjang, TG990V3 memiliki arsitektur modular penuh dengan modul GPU, kipas, daya, dan jaringan yang dapat diganti panas (hot-swappable).

Hasil uji pelanggan awal melaporkan:

• Waktu Rata-rata Perbaikan (MTTR) berkurang dari 10–12 menit menjadi di bawah 3 menit

• Ketersediaan sistem 99,95% selama siklus pelatihan terus-menerus 24/7

• Efisiensi penskalaan linier 92% pada klaster ribuan kartu

• Ini menjamin keandalan tanpa preceden bagi perusahaan yang mengoperasikan lingkungan pelatihan terdistribusi besar.

 

Metrik Kinerja Dunia Nyata (dari pengguna awal)

• 32% pengurangan waktu pelatihan untuk LLM dengan parameter triliunan

• Peningkatan lebih dari 60% dalam throughput pemuatan data

• Efisiensi penskalaan 92% pada kluster multi-node

• Ketersediaan 99,95% dalam tugas jangka panjang

Aplikasi meliputi:

• Pelatihan Model Bahasa Besar (LLM) (LLaMA, seri GPT, dll.)

• Pelatihan model multimodal (visual, audio, video, 3D)

• Platform AI perusahaan dan kluster inferensi

• Lingkungan komputasi penelitian universitas dan tingkat nasional

3.jpg

Membangun Infrastruktur AI Generasi Berikutnya

Dr. Li Zhang, Wakil Presiden Produk di Aethlumis, menyimpulkan:

“TG990V3 bukanlah pembaruan perangkat keras sederhana. Ini merupakan optimasi pada level sistem terhadap seluruh pipa pelatihan model besar — termasuk arsitektur interkoneksi, subsistem I/O, dan operasi cerdas. Kami merancangnya untuk mendukung pertumbuhan pesat skala model dalam tiga tahun ke depan.”

TG990V3 kini tersedia untuk penyebaran berskala perusahaan dan telah digunakan di berbagai platform cloud serta perusahaan AI.