אנו גם נמצאים על סף יישום תשתית מתקדמת בתחומים קריטיים באתלומיס, בזכות היחסים העמוקים שלנו עם מובילי הטכנולוגיה העולמיים כגון HPE, Dell ו-Huawei. קיימת טכנולוגיית ארכיטקטורה אחת בתחום הבינה המלאכותית אשר הפכה לחיונית בבניית מערכות העל-חישוב שמנהלות את הבינה המלאכותית כיום: ה שרת GPU של OAM (Open Accelerator Module) . זה לא רק חומרה נוספת, אלא עמוד השדרה עליו נבנים הקנה, הביצועים והיעילות של עומסי העבודה הקשים ביותר בזמננו בתחום הבינה המלאכותית.

הנעה של תקן וצפיפות.
הגודל העצום של מודלי בינה מלאכותית, במיוחד מודלי שפה גדולים (LLMs) ורשתות עצביות מורכבות יותר, הופך את ארכיטקטורת השרתים הישנה, שנעשתה לשימוש עם מודלים פשוטים יותר, ללא מעשי. המודלים דורשים כמות חישוב מקבצת חסרת תקדים, וזה מחייב שילוב עשירים, ובמקרים מסוימים מאות GPU, בתוך מערכת מאוחדת. OAM הוא סטנדרט פתוח חשוב, שפוענח על ידי קONSורציוני תעשייה, אשר מפריד בין מצג התאוצה של ה-GPU לצורתו הפיזית הייחודית. הסטנדרטיזציה הזו מאפשרת לספקים כמו NVIDIA, AMD ואחרים לפתח GPU בעלי ביצועים גבוהים שיכולים להיכנס לדגם תואם סטנדרטי. ללקוחותינו בתעשייה, פיננסים ואנרגיה, זה אומר שהם יכולים ליצור מחשבים גדולים ובעלי ביצועים גבוהים מבלי להיות קשורים לסייסטמה של ספק יחיד, מה שמאפשר להם גמישות ולהבטיח ששקיעתם תעמוד במבחן הזמן.

השליטה בצוק החיבור.
אין טעם בладת עיבוד גולמית שלא יכולה לתקשר במהירויות יוצאות דופן, ה-GPUs. אפילו שרת יחיד עם מספר GPUs אינו יכול לשמש לאימון מודל של טריליון פרמטרים. הגאונות האמיתית של ארכיטקטורת OAM היא שהיא משולבת עם רכיבי חיבור במהירות גבוהה במיוחד ובנמיכות נמוכה כמו NVLink ו-NVSwitch (באקוסיסטמה של NVIDIA) או אנלוגים שלהם. שרתים מסוג OAM מיושמים במטרה לתמוך בתקשורת ישירה בין ה-GPUs בכל המערך של המודולים, מבלי לכלול מסלולים מסורתיים איטיים יותר של PCIe. זה יוצר מאיץ עצום יחיד שבו ניתן להחליף טרהבייטים של נתוני סימולציה כמעט בזמן אמת. בכך מתאפשר להפוך קבוצה של מחשבים לאישיות אחת למעבד AI על מונוליתי אמיתי. זה מאפשר ישירות את השלמת הפרויקטים באופן יעיל ובזמן, ללא מה שסילוקו היה מונע את הצלחתם.

עיצוב תרמי ואספקת חשמל: הנדסת 욤
הצפיפות הגבוהה של הספק בRack אחד יוצרת בעיות תרמיות ובעיות חשמל משמעותיות. שרת OAM הוא לא רק קופסה של GPU-ים: זהו אומנות בהנדסת מערכות המתמקדת בביצועים לאורך זמן. המערכות הללו מעוצבות עם מערכות קירור מתקדמות ומואמות, לרוב קירור נוזלי ישיר לשבב, שיעיל מאוד בפיזור חום עד לצריכת הספק בכמה קילוואט. זה מאפשר ל-GPU לשמור על שעון בוסט לאורך פרקי זמן ארוכים, מה שחיוני בתוכניות אימון שנמשכות שבועות. יתר על כן, עיצוב החשמל המשולב מספק ספק חשמל יציב ונקי בקנה מידה גדול. זה תורם לאמינות ולסיכון מופחת של השבתה עבור הלקוחות שלנו במקרה של אימון AI קריטי או פעולות הסקה בקנה מידה גדול.

היכולת להרחיב את הבינה המלאכותית.
לבסוף, פקטור התבנית OAM הוא יחידת הבסיס להרחבה של תשתיות בינה מלאכותית. הוא מאפשר להפוך את צבירת מרכזי הנתונים לגישה של הרחבה (scale-out) במקום הרחבה בכיוון אנכי (scale-up). ניתן לאגד חלקי OAM בודדים לפוֹד, וכמה פודים יכולים ליצור אשכול מחשב-על. הניסיון שלנו באינטגרציה של מערכות עם שותפים כמו HPE ו-Huawei מאפשר לנו להציע מודולריות זו, כדי לאפשר לארגונים לפתח יכולות של בינה מלאכותית בתהליך שלבי יעיל מאוד, בהתאם לצרכיהם. הפתרון מספק את הביצועים והאמינות הנדרשים ליישומי בינה מלאכותית רגישים בתעשייה ובמערכת הפיננסית, החל בבינה מלאכותית יוצרת וכشف הונאות בזמן אמת, דרך תווים דיגיטליים מורכבים ועד סימולציות של תחזוקה חיזויית.
לפיכך, שרתים של OAM GPU אינם מהווים רק שדרוג. הם מייצגים שינוי פרדיגמה בעיצוב מרכזי נתונים ונועדו במיוחד להתגבר על הצווארי הבקבוק האופייניים לחישובי AI. הם מציעים את שלושת הרכיבים הבסיסיים: צפיפות סטנדרטית, קישוריות מהפכנית וניהול תרמי יעיל, אשר יוצרים בסיס בלתי ניתן לשבירה שעליו נבנית עתיד ה- AI. אנו משתמשים באסטרטגיות השותפות והמומחיות הטכנולוגית שלנו כדי לספק ולתחזק את התשתית הבסיסית הזו ב-Aethlumis, כדי לאפשר ללקוחותינו בתעשיות הפיננסים, הייצור והאנרגיה לה innovate בצורה יעילה ובביטחון.