Uzyskaj bezpłatny wycenę

Nasz przedstawiciel skontaktuje się z Tobą wkrótce.
E-mail
Tel/WhatsApp
Imię i nazwisko
Nazwa firmy
Wiadomość
0/1000

Aktualności

Strona Główna >  Aktualności

Aethlumis ujawnia nowej generacji serwer AI TG990V3, oferujący poprawę wydajności szkolenia modeli na dużą skalę do 40%

2025.11.18

Shenzhen, Chiny — 18 listopada 2025 r. — W miarę jak globalne zapotrzebowanie na moc obliczeniową sztucznej inteligencji nadal rośnie, Aethlumis ogłosiło dzisiaj wprowadzenie nowego wiodącego serwera AI, modelu TG990V3. Po zakończeniu wczesnych wdrożeń w największych firmach internetowych, instytucjach badawczych zajmujących się sztuczną inteligencją oraz dostawcach usług chmurowych, serwer TG990V3 wykazał znaczące przełomy wydajnościowe w treningu modeli o dużej skali. W testach obejmujących obciążenia o trylionach parametrów, serwer osiągnął poprawę ogólnej efektywności treningu do 40%, a cykle treningowe skrócono o 30%–32% w porównaniu z poprzednią generacją.

1-1.jpg

Infrastruktura AI osiąga nowy punkt zwrotny

W ciągu ostatnich dwóch lat rozmiary modeli zwiększyły się z miliardów do trylionów parametrów, przez co luka między postępem algorytmów a infrastrukturą obliczeniową staje się coraz bardziej widoczna. CEO Aethlumis, Wang Qihang, podkreślił podczas uroczystości uruchomienia:

tempo rozwoju dużych modeli przekroczyło szybkość tradycyjnych ulepszeń infrastruktury. TG990V3 został zaprojektowany tak, aby zapewniać wyższą efektywność treningu bez zwiększania kosztów sprzętu czy zużycia energii, umożliwiając zespołom zajmującym się sztuczną inteligencją szybszą i bardziej zrównoważoną iterację.

Analitycy branżowi zwracają uwagę, że konkurencja na rynku serwerów AI przesunęła się od prostego stosowania surowego sprzętu do optymalizacji architektury na poziomie systemowym – kierunku, który reprezentuje model TG990V3.

2.jpg

 

01.jpg

Wysokowydajna architektura połączeń: wykorzystanie przepustowości typu peer-to-peer na poziomie 95%+ podczas treningu modelu o mocy 1T parametrów

Wyposażony w osiem modułów GPU OAM zgodnych ze standardem OAI 2.0, model TG990V3 wykorzystuje nowoczesną wielopoziomową topologię połączeń zoptymalizowaną pod kątem skalowalnego, rozproszonego treningu.

W testach wewnętrznych przeprowadzonych przez wiodącą firmę internetową na modelu o mocy trylionów parametrów:

• Efektywność połączeń między GPU utrzymywała się na stabilnym poziomie 95–96%

• Opóźnienie synchronizacji gradientów zmniejszyło się o 27%

• Całkowita przepustowość klastra wzrosła o 21%

Dyrektor techniczny z oceniającej pracowni AI skomentował:

„Podczas trenowania modeli w tej skali każdy procentowy punkt efektywności komunikacji ma znaczenie. TG990V3 utrzymuje stabilną wydajność nawet przy zwiększaniu się rozmiaru klastra, co jest dużą zaletą.”


02.jpg

Projekt „złotego podziału” I/O: eliminacja wąskiego gardła danych w szkoleniu AI

Trwającym problemem w szkoleniu AI jest to, że wysokowydajne jednostki GPU często pozostają niedowartożone ze względu na wąskie gardła wejścia/wyjścia — niewystarczającą przepustowość sieci, ograniczoną przepustowość pamięci masowej lub powolne potoki ładowania danych.

W celu rozwiązania tego problemu firma Aethlumis wprowadziła rzadką w branży architekturę 8 : 8 : 16 (GPU : NIC : NVMe):

• 400 Gbps dedykowanej przepustowości sieciowej na każdą jednostkę GPU

• Dwa niezależne dyski SSD NVMe Gen4/Gen5 na każdą jednostkę GPU

• Redukcja opóźnień ładowania danych o ponad 60%

Krajowa startupowa firma AI biorąca udział w wczesnym testowaniu zauważyła, że wykorzystanie jednostek GPU utrzymywało się konsekwentnie na poziomie 94–97%, co jest znacznie wyższe niż zakres 70–75% obserwowany w ich istniejących serwerach.


03.jpg

Niezawodność na poziomie klastra: MTTR poniżej 3 minut, skalowanie liniowe do 92%

Zaprojektowany dla długotrwałych, dużych obciążeń szkoleniowych, TG990V3 oferuje w pełni modułową architekturę z wymiennymi podczas pracy modułami GPU, wentylatorów, zasilania i sieci.

Wyniki wcześniejszych testów klientów:

• Średni czas naprawy (MTTR) skrócony z 10–12 minut do mniej niż 3 minuty

• Dostępność systemu na poziomie 99,95% podczas ciągłych cykli szkoleniowych 24/7

• Efektywność skalowania liniowego na poziomie 92% w klastrach tysięcy kart

• Gwarantuje to bezprecedensową niezawodność dla przedsiębiorstw prowadzących duże, rozproszone środowiska szkoleniowe.

 

Rzeczywiste metryki wydajności (od wczesnych użytkowników)

• Skrócenie czasu szkolenia modeli językowych o trylionach parametrów o 32%

• Poprawa przepustowości ładowania danych o ponad 60%

• 92% wydajność skalowania w klastrach wielowęzłowych

• Dostępność na poziomie 99,95% w długotrwałych zadaniach

Zastosowania obejmują:

• Trening dużych modeli językowych (LLM) (LLaMA, seria GPT itp.)

• Trening multimodalnych modeli (wizja, dźwięk, wideo, 3D)

• Platformy AI dla przedsiębiorstw i klastry inferencyjne

• Środowiska obliczeniowe do badań naukowych na uczelniach i poziomie krajowym

3.jpg

Budowanie nowej generacji infrastruktury sztucznej inteligencji

Dr Li Zhang, wiceprezes ds. produktu w Aethlumis, podsumował:

„TG990V3 to nie tylko prosta aktualizacja sprzętu. Oznacza optymalizację na poziomie systemowym całego procesu treningu dużych modeli — w tym architektury połączeń, podsystemu I/O oraz inteligentnych operacji. Zaprojektowaliśmy go tak, by wspierał trzy nadchodzące lata przyspieszonego wzrostu skali modeli.”

TG990V3 jest już dostępny do wdrożeń na skalę przedsiębiorstw i aktualnie jest używany na kilku platformach chmurowych oraz w firmach zajmujących się sztuczną inteligencją.