Ücretsiz Teklif Alın

Temsilcimiz kısa süre içinde sizinle iletişime geçecek.
E-posta
Tel/WhatsApp
Ad
Şirket Adı
Mesaj
0/1000

Haber

Ana Sayfa >  Haber

Aethlumis, Büyük Ölçekli Model Eğitim Verimliliğinde %40'a Varan İyileşme Sunan Yeni Nesil AI Sunucusu TG990V3'ü Tanıttı

2025.11.18

Şenzhen, Çin — 18 Kasım 2025 — Küresel ölçekte yapay zeka hesaplama gücüne olan talep artmaya devam ederken, Aethlumis bugün yeni bayrak gemisi AI sunucusu TG990V3'ü duyurdu. Büyük internet şirketlerinde, yapay zeka araştırma kurumlarında ve bulut hizmet sağlayıcılarında erken aşamalı dağıtımları tamamlanan TG990V3, büyük ölçekli model eğitimi konusunda önemli performans atılımları gösterdi. Trilyon parametreli iş yüklerini içeren testlerde sunucu, önceki nesle kıyasla genel eğitim verimliliğinde %40'a varan artış sağladı ve eğitim döngüleri %30-32 oranında kısaltıldı.

1-1.jpg

Yapay Zeka Altyapısı Yeni Bir Kırılma Noktasına Ulaştı

Geçtiğimiz iki yıl içinde model boyutlarının milyarlardan trilyonlara kadar çıkmasıyla birlikte algoritma gelişimi ile hesaplama altyapısı arasındaki uçurum giderek daha belirgin hale geldi. Aethlumis CEO'su Wang Qihang, lansman etkinliği sırasında vurguladı:

büyük model evriminin hızı, geleneksel altyapı yükseltmelerinin hızını geride bırakmıştır. TG990V3, donanım maliyetini veya enerji tüketimini artırmadan daha yüksek eğitim verimliliği sunmak üzere tasarlanmıştır ve bu da AI takımlarının daha hızlı ve sürdürülebilir bir şekilde yinelemesini sağlar.

Sektör analistleri, AI sunucu rekabetinin ham donanım yığmadan sistem düzeyinde mimari optimizasyona kaydığını, TG990V3'ün de bu doğrultuyu yansıttığını belirtiyor.

2.jpg

 

01.jpg

Yüksek Verimli Bağlantı Mimarisi: 1 Trilyon Parametrelik Eğitimde %95'in Üzerinde Eşler Arası Bant Genişliği Kullanımı

OAI 2.0 standardına göre sekiz OAM GPU modülü ile donatılmış olan TG990V3, büyük ölçekli dağıtık eğitime uygun olarak optimize edilmiş nesil içi çok katmanlı bağlantı topolojisini benimsemiştir.

Önde gelen bir internet şirketinin trilyon parametreli bir model üzerinde gerçekleştirdiği iç testlerde:

• GPU-GPU arası bağlantı verimliliği %95–96 seviyesinde kararlı kalmıştır

• Gradyan senkronizasyon gecikmesi %27 oranında azalmıştır

• Toplam küme iş yükü kapasitesi %21 oranında artmıştır

Değerlendirme yapan bir AI laboratuvarının teknik direktörü şöyle dedi:

"Bu ölçeklerde modeller eğitirken, iletişim verimliliğinin her yüzde puanı önemlidir. TG990V3, küme büyüklüğü arttıkça bile kararlı performansını korur ve bu da büyük bir avantajdır."


02.jpg

G/Ç "Altın Oran" Tasarımı: Yapay Zekâ Eğitiminde Veri Darboğazını Ortadan Kaldırma

Yapay zekâ eğitiminde devam eden bir sorun, G/Ç darboğazları nedeniyle yüksek performanslı GPU'ların sıklıkla yeterince kullanılmamasıdır — yetersiz ağ bant genişliği, sınırlı depolama aktarım hızı veya yavaş veri yükleme hatları.

Bunu gidermek için Aethlumis, sektörel olarak nadir görülen 8 : 8 : 16 (GPU : NIC : NVMe) mimarisini sundu:

• Her GPU için ayrılmış 400 Gbps ağ bant genişliği

• Her GPU başına iki adet bağımsız NVMe Gen4/Gen5 SSD

• Veri yükleme gecikmesinde %60'tan fazla azalma

Erken testlere katılan yerli bir yapay zekâ girişimi, GPU kullanım oranlarının %94–97 arasında tutarlı şekilde kaldığını, mevcut sunucularında görülen %70–75 aralığına kıyasla önemli ölçüde daha yüksek olduğunu belirtti.


03.jpg

Küme Seviyesi Güvenilirlik: 3 Dakikanın Altında Ortalama Tamir Süresi (MTTR), Doğrusal Ölçeklendirme %92'ye Kadar

Uzun süreli, büyük ölçekli eğitim iş yükleri için tasarlanan TG990V3, sıcak tak-çıkart destekli GPU, fan, güç ve ağ modülleriyle tamamen modüler bir mimariye sahiptir.

Erken müşteri testlerinde bildirilenler:

• Ortalama Tamir Süresi (MTTR) 10–12 dakikadan 3 dakikanın altına indi

• Sürekli 24/7 eğitim döngüleri sırasında sistem kullanılabilirliği %99,95

• Binye yakın kartlı kümelerde %92 doğrusal ölçeklendirme verimliliği

• Bu, büyük dağıtık eğitim ortamlarında çalışan işletmeler için benzersiz bir güvenilirlik sağlar.

 

Gerçek Dünya Performans Metrikleri (ilk kullanıcılardan)

• Trilyon parametreli büyük dil modelleri (LLM) için eğitim süresinde %32 azalma

• Veri yükleme aktarım hızında %60'tan fazla iyileşme

• Çoklu düğüm kümelerinde %92 ölçeklendirme verimliliği

• Uzun süreli görevlerde %99,95 kullanılabilirlik

Uygulamalar şunları içerir:

• Büyük Dil Modeli (LLM) eğitimi (LLaMA, GPT serisi vb.)

• Çok modlu model eğitimi (görsel, ses, video, 3D)

• Kurumsal AI platformları ve çıkarım kümeleri

• Üniversite ve ulusal düzeydeki araştırma hesaplama ortamları

3.jpg

Yapay Zekâ Altyapısının Bir Sonraki Neslinin İnşası

Aethlumis Ürün Başkan Yardımcısı Dr. Li Zhang şöyle dedi:

“TG990V3 yalnızca basit bir donanım güncellemesi değildir. Bağlantı mimarisi, G/Ç alt sistemi ve akıllı işlemler de dahil olmak üzere tüm büyük model eğitim hattında sistem düzeyinde bir optimizasyondur. Model ölçeğindeki sonraki üç yılın hızlandırılmış büyümesini destekleyecek şekilde tasarlandı.”

TG990V3 artık kurumsal ölçekte dağıtım için mevcuttur ve şu anda birkaç bulut platformu ile yapay zekâ şirketinde kullanılmaktadır.