Shenzhen, China — Nobyembre 18, 2025 — Habang patuloy na tumataas ang pandaigdigang pangangailangan sa AI computing power, inihayag ngayon ng Aethlumis ang paglabas ng bagong nangungunang AI server nito, ang TG990V3. Matapos maisakatuparan ang mga paunang pag-deploy sa mga pangunahing kompanya sa internet, institusyon sa pananaliksik ng AI, at mga provider ng cloud service, nagpakita ang TG990V3 ng malaking pag-unlad sa pagganap sa pagsasanay ng malalaking modelo. Sa mga pagsusuri na may kinalaman sa mga workload na trilyon ang parameter, nakamit ng server ang hanggang 40% na pagpapabuti sa kabuuang kahusayan ng pagsanay, kung saan nabawasan ang oras ng pagsanay ng 30%–32% kumpara sa nakaraang henerasyon.

Ang Imprastraktura ng AI ay Nauunlan sa Bagong Punto ng Pagbabago
Dahil sa paglaki ng sukat ng mga modelo mula sa bilyon hanggang trilyon na parameter sa nakaraang dalawang taon, lalong lumilitaw ang agwat sa pagitan ng pag-unlad ng algorithm at ng imprastrakturang pang-compute. Ibinida ni Wang Qihang, CEO ng Aethlumis, sa panahon ng paglulunsad:
ang bilis ng pag-unlad ng malalaking modelo ay lumampas na sa bilis ng tradisyonal na pag-upgrade ng imprastraktura. Idinisenyo ang TG990V3 upang magbigay ng mas mataas na kahusayan sa pagsasanay nang hindi tataas ang gastos sa hardware o konsumo ng kuryente, na nagbibigay-daan sa mga koponan ng AI na mas mabilis at mas napapanatiling makapag-iterasyon.
Tinutukoy ng mga analyst sa industriya na ang kompetisyon sa AI server ay lumipat na mula sa tuwirang pagtambak ng hardware tungo sa pag-optimize ng arkitektura sa antas ng sistema, isang direksyon na pinatutunayan ng TG990V3.


Mataas na Kahusayan sa Arkitekturang Interconeksyon: 95%+ na Paggamit ng Bandwidth sa Peer-to-Peer sa 1T-Parameter na Pagsasanay
Nakakalagyan ng walong OAM GPU module na batay sa pamantayan ng OAI 2.0, ginagamit ng TG990V3 ang susunod na henerasyong multi-tier na topolohiya ng interconeksyon na optimizado para sa malawakang distribusyong pagsasanay.
Sa panloob na pagsusuri na isinagawa ng isang nangungunang internet company sa isang trilyon-parameter na modelo:
• Nanatiling matatag ang kahusayan ng koneksyon mula GPU patungo sa GPU sa 95–96%
• Bumaba ng 27% ang latency sa pagsinkronisa ng gradient
• Tumaas ng 21% ang kabuuang throughput ng cluster
Komento ng isang direktor na teknikal mula sa nagtatasa ng AI lab:
"Sa pagtuturo ng mga modelo sa ganitong sukat, mahalaga ang bawat porsyento ng kahusayan sa komunikasyon. Ang TG990V3 ay nananatiling matatag ang pagganap kahit lumalaki ang sukat ng cluster, na siya nang malaking bentaha."

I/O "Golden Ratio" Design: Pag-alis sa Data-Bottleneck sa Pagsasanay ng AI
Isang patuloy na hamon sa pagsasanay ng AI ay ang mataas na pagganap ng GPU na madalas hindi napapagana nang husto dahil sa I/O bottlenecks — kulang sa bandwidth ng network, limitadong throughput ng storage, o mabagal na data loading pipelines.
Upang masolusyunan ito, inilunsad ng Aethlumis ang isang bihasa-seldom na arkitektura na 8 : 8 : 16 (GPU : NIC : NVMe):
• 400 Gbps na dedikadong network bandwidth kada GPU
• Dalawang hiwalay na NVMe Gen4/Gen5 SSDs kada GPU
• Higit sa 60% na pagbaba sa latency ng data loading
Isang lokal na AI startup na kasali sa maagang pagsubok ay nabatid na ang paggamit ng GPU ay nanatiling konstante sa pagitan ng 94%–97%, na mas mataas kaysa sa 70–75% na saklaw sa kanilang mga kasalukuyang server.

Kapagkakatiwalaan Batay sa Grupo: MTTR sa Ilalim ng 3 Minuto, Linear na Pag-scale Hanggang 92%
Idinisenyo para sa matagalang, malawakang mga workload sa pagsasanay, ang TG990V3 ay may ganap na modular na arkitektura na may hot-swappable na GPU, fan, power, at networking na mga module.
Inilahad ng mga unang kustomer:
• Naikli ang Mean Time to Repair (MTTR) mula 10–12 minuto patungo sa ilalim ng 3 minuto
• 99.95% na availability ng sistema sa panahon ng tuluy-tuloy na 24/7 na training cycles
• 92% na kahusayan sa linear scaling sa mga cluster na may libong kard
• Tinitiyak nito ang walang kapantay na pagiging maaasahan para sa mga negosyo na gumagamit ng malalaking distributed training environment.
Mga Sukat sa Tunay na Pagganap (mula sa mga maagang adopter)
• 32% na pagbaba sa oras ng pagsanay para sa mga LLM na may trilyong parameter
• Higit sa 60% na pagpapabuti sa data loading throughput
• 92% na kahusayan sa pagsukat sa mga multi-node na grupo
• 99.95% na availability sa mga matagalang gawain
Kasama sa mga Application:
• Pagsasanay ng Large Language Model (LLM) (LLaMA, GPT series, at iba pa)
• Pagsasanay ng multimodal na modelo (visual, audio, video, 3D)
• Mga enterprise AI platform at inference cluster
• Mga kapaligiran sa komputasyon para sa pananaliksik sa unibersidad at pambansang antas

Pagtatayo ng Susunod na Henerasyon ng Infrastruktura ng AI
Tapos na si Dr. Li Zhang, Vice President of Product sa Aethlumis, nang sabihin:
“Ang TG990V3 ay hindi simpleng pagpapalit ng hardware. Ito ay kumakatawan sa system-level optimization ng buong large-model training pipeline — kasama ang interconnect architecture, I/O subsystem, at intelligent operations. Idinisenyo namin ito upang suportahan ang susunod na tatlong taon ng mabilis na paglago sa laki ng modelo.”
Ang TG990V3 ay magagamit na para sa enterprise-scale na pag-deploy at ginagamit na sa ilang cloud platform at mga kumpanya ng AI.