Იღეთ უფასო ციფრი

Ჩვენი წარმომადგენელი სწრაფად თქვენთან დაგერთვება.
Ელ. ფოსტა
TEL/WHATSAPP
Სახელი
Კომპანიის სახელი
Მესიჯი
0/1000

Aethlumis ამჟამად წარმოგიდგენთ ახალ, შემდეგი თაობის AI სერვერს TG990V3, რომელიც უზრუნველყოფს 40%-ით უმჯობეს ეფექტიანობას მასშტაბური მოდელების სწავლის პროცესში

2025.11.18

Შენჯენი, ჩინეთი — 2025 წლის 18 ნოემბერი — როგორც მსოფლიოში ხელოვნური ინტელექტის გამოთვლითი სიმძლავრის მოთხოვნა მუდმივად იზრდება, Aethlumis-მა დღეს აღინიშნა თავისი ახალი სათავე სერვერის, TG990V3-ის გაშვება. მთავარი ინტერნეტ-კომპანიების, ხელოვნური ინტელექტის კვლევითი დაწესებულებების და ღრუბლოვანი სერვისების მომწოდებლების გარშემო სერვერის საწყისი ეტაპის განთავსების დასრულების შემდეგ, TG990V3-მა დიდი მასშტაბის მოდელების სწავლის პროცესში მნიშვნელოვანი წარმატებები გამოავლინა. ტრილიონობით პარამეტრებიანი სამუშაო დატვირთვის შემცველი ტესტების დროს, სერვერმა მიაღწია სრული სწავლის ეფექტიანობის 40%-ით გაუმჯობესებას, ხოლო სწავლის ციკლები წინა თაობასთან შედარებით შემოკლდა 30%-32%-ით.

1-1.jpg

Ხელოვნური ინტელექტის ინფრასტრუქტურა ახალ გადატვირთვის წერტილთან მიუახლოვდა

Ბოლო ორი წლის განმავლობაში მოდელების ზომები მილიარდობით პარამეტრიდან ტრილიონობით პარამეტრებამდე გაფართოვდა და ალგორითმული განვითარებისა და გამოთვლითი ინფრასტრუქტურის შორის არსებული სივრცე უფრო მკვეთრად გამოიკვეთა. Aethlumis-ის გენერალურმა დირექტორმა, ვან ჩიჰანგმა გაშვების ღონისძიების დროს განაცხადა:

„დიდი მოდელების განვითარების ტემპი უკვე აღემატება ტრადიციული ინფრასტრუქტურის განახლების სიჩქარეს. TG990V3 შეიქმნა იმისათვის, რომ უზრუნველყოს უფრო მაღალი სწავლის ეფექტიანობა აპარატურის ღირებულების ან ენერგომოხმარების გაზრდის გარეშე, რაც საშუალებას აძლევს AI გუნდებს უფრო სწრაფად და მდგრადად განახორციელონ იტერაციები.“

Ინდუსტრიის ანალიტიკოსები აღნიშნავენ, რომ AI სერვერებზე კონკურენცია გადაინაცვლა სიმძლავრის მიხედვით აპარატურის ჩაგდებიდან სისტემური დონის არქიტექტურულ ოპტიმიზაციაზე, რასაც TG990V3 წარმოადგენს.

2.jpg

 

01.jpg

Მაღალი ეფექტიანობის ინტერკონექტის არქიტექტურა: 95%-ზე მეტი პირი-პირ სიგნალის გამტარობის გამოყენება 1T-პარამეტრიან სწავლებაში

TG990V3 შეიცავს რვა OAM GPU მოდულს OAI 2.0 სტანდარტზე დაყრდნობით და იყენებს მრავალდონიან ინტერკონექტის ახალ თაობის ტოპოლოგიას, რომელიც ოპტიმიზირებულია დიდმასშტაბიანი დისტრიბუციული სწავლებისთვის.

Წამყვანი ინტერნეტ-კომპანიის შიდა ტესტირების დროს ტრილიონი პარამეტრის მქონე მოდელზე:

• GPU-ს GPU-ს შორის ინტერკონექტის ეფექტიანობა დარჩა სტაბილური 95–96%-ზე

• გრადიენტული სინქრონიზაციის დაგვიანება შემცირდა 27%-ით

• კლასტერის სრული სიმძლავრე გაიზარდა 21%-ით

Შემფასებელი AI ლაბორატორიის ტექნიკურმა დირექტორმა თქვა:

"როდესაც მოდელებს ასწავლი ამ მასშტაბით, კომუნიკაციის თითოეული პროცენტი მნიშვნელოვანია. TG990V3 შენარჩუნებს სტაბილურ შესრულებას, მიუხედავად კლასტერის ზომის გაფართოებისა, რაც მნიშვნელოვანი უპირატესობაა."


02.jpg

I/O „ოქროს შეფარდების“ დიზაინი: მონაცემთა შესაფერის აღმოფხვრა AI-ის სწავლებისას

AI-ის სწავლების ერთ-ერთი მუდმივი გამოწვევა ის არის, რომ ხშირად მაღალი სიმძლავრის GPU-ები არ არის სრულად გამოყენებული I/O შესაფერის გამო — ქსელური სიგანის არასაკმარისობის, შენახვის შეზღუდული სიჩქარის ან ნელი მონაცემთა ჩატვირთვის პირადების გამო.

Ამის გადასაჭრელად, Aethlumis-მა წარმოადგინა სფეროში იშვიათი 8 : 8 : 16 (GPU : NIC : NVMe) არქიტექტურა:

• 400 გბ/წმ სპეციალიზებული ქსელური სიგანი თითოეული GPU-სთვის

• ორი დამოუკიდებელი NVMe Gen4/Gen5 SSD თითოეული GPU-სთვის

• მონაცემთა ჩატვირთვის დაგვიანების შემცირება 60%-ზე მეტი

Ადგილობრივმა AI სტარტაფმა, რომელმაც ადრეულ ტესტირებაში მიიღო მონაწილეობა, აღნიშნა, რომ GPU-ს გამოყენება მუდმივად რჩებოდა 94%-დან 97%-მდე, რაც მნიშვნელოვნად მაღალია მათ არსებულ სერვერებზე 70–75% დიაპაზონთან შედარებით.


03.jpg

Კლასტერული დონის საიმედოობა: MTTR 3 წუთზე ნაკლები, ხაზოვანი მასშტაბირება 92%-მდე

Შექმნილია ხანგრძლივი, მასშტაბური სწავლების დატვირთვისთვის, TG990V3-ს აქვს სრულად მოდულური არქიტექტურა, რომელიც შეიცავს ცვლად გპუ-ს, ბგერის, ელექტრომომარაგებისა და ქსელურ მოდულებს.

Ადრეულმა კლიენტებმა შეფასებისას მონაცემები აჩვენეს:

• საშუალო სისწრაფის აღდგენის დრო (MTTR) შემცირდა 10–12 წუთიდან 3 წუთზე ნაკლებამდე

• 99,95% სისტემური ხელმისაწვდომობა უწყვეტი 24/7 სწავლების ციკლების განმავლობაში

• 92% ხაზოვანი მასშტაბირების ეფექტიანობა ათასობით კარტიან კლასტერში

• ეს უზრუნველყოფს უმაგალითო საიმედოობას დიდი განაწილებული სწავლების გარემოში მოღვაწე კომპანიებისთვის.

 

Რეალური სიმძლავრის მეტრიკები (ადრეული მომხმარებლებისგან)

• ტრილიონი პარამეტრის მქონე LLM-ების სწავლების დროში 32%-იანი შემცირება

• 60%-ზე მეტი გაუმჯობესება მონაცემების ჩატვირთვის გამტარუნარიანობაში

• 92% სკალირების ეფექტიანობა მრავალ კვანძიან კლასტერებში

• 99,95% ხელმისაწვდომობა გრძელვადიან ამოცანებში

Გამოყენების სფეროები 娷ებს:

• დიდი ენობრივი მოდელის (LLM) ტრენინგი (LLaMA, GPT სერია, და ა.შ.)

• მულტიმოდალური მოდელის ტრენინგი (ვიზუალური, აუდიო, ვიდეო, 3D)

• სამრეწველო AI პლატფორმები და ინფერენციის კლასტერები

• უნივერსიტეტული და ეროვნული დონის კვლევითი გამოთვლითი გარემოები

3.jpg

Ხელოვნური ინტელექტის ინფრასტრუქტურის ახალი თაობის შექმნა

Აეთლუმისის პროდუქტის ვიცე-პრეზიდენტმა, დოქტორმა ლი ჭანგმა დაასრულა:

"TG990V3 არ წარმოადგენს მარტივ აღჭურვილობის განახლებას. ეს მთელი დიდი მოდელის ტრენინგის პირების სისტემური ოპტიმიზაციაა — შეუსწორებელი არქიტექტურა, I/O ქვესისტემა და ინტელექტუალური ოპერაციები. ჩვენ მისი შექმნა მოდელის მასშტაბის მომდევნო სამი წლის განმავლობაში აჩქარებული ზრდის მხარდასაჭერად მოვახდინეთ."

TG990V3 ახლა ხელმისაწვდომია სამრეწველო მასშტაბის გაშლისთვის და უკვე გამოიყენება რამდენიმე ღრუბლოვან პლატფორმაზე და AI კომპანიაში.