![ה-Nvidia H100 Tensor Core GPU](/f/9df79d3a2b6c1cbf2a2d5811b30cf8ca.jpg)
Nvidia הכריז אתמול שזה מתקרב H100 "Hopper" Tensor Core GPU קבע שיאי ביצועים חדשים במהלך הופעת הבכורה שלו בתקן התעשייה MLPerf אמות מידה, המספקות תוצאות מהירות עד פי 4.5 מה- A100, שהוא כיום שבב הבינה המלאכותית הייצור המהיר ביותר של Nvidia.
מדדי MPerf (הנקראים טכנית "MLPerfTM Inference 2.1") מודדים עומסי עבודה של "מסק", המדגימים עד כמה שבב יכול ליישם מודל למידת מכונה שעבר הכשרה על נתונים חדשים. קבוצה של חברות בתעשייה הידועה בשם MLCommons פיתח את מדדי MLPerf בשנת 2018 לספק מדד סטנדרטי להעברת ביצועי למידת מכונה ללקוחות פוטנציאליים.
![תוצאות השוואת H100 של Nvidia לעומת A100, בצורת גרף עמודות מפואר.](/f/35eaa5d27453457889cb785d610afe99.jpg)
Nvidia
בפרט, ה-H100 הצליח ב- BERT-Large benchmark, המודד את ביצועי עיבוד השפה הטבעית באמצעות מודל BERT שפותח על ידי גוגל. Nvidia מזכה את התוצאה הספציפית הזו לארכיטקטורת הופר מנוע שנאי, שמאיץ במיוחד אימון דגמי שנאים. המשמעות היא שה-H100 יכול להאיץ מודלים עתידיים של שפה טבעית הדומים לאלו של OpenAI GPT-3, שיכול לחבר יצירות כתובות בסגנונות רבים ושונים ולקיים שיחות שיחה.
לקריאה נוספת
אין GPUs בשבילך: ארה"ב חוסמת מכירה של שבבי בינה מלאכותית לסין ולרוסיהNvidia מציבה את ה-H100 כשבב GPU של מרכז נתונים מתקדם המיועד ליישומי בינה מלאכותית ומחשבי-על כגון זיהוי תמונות, דגמי שפות גדולים, סינתזת תמונה, ועוד. אנליסטים מצפים שהוא יחליף את ה-A100 כ-GPU של מרכז הנתונים הדגל של Nvidia, אך הוא עדיין בפיתוח. ממשלת ארצות הברית הגבלות שהוטלה בשבוע שעבר על יצוא השבבים לסין הביאה חשש ש-Nvidia לא תוכל לספק את ה-H100 עד סוף 2022 מאחר שחלק מהפיתוח שלו מתרחש שם.
Nvidia הובהר בהגשה שנייה של רשות ניירות ערך בשבוע שעבר כי ממשלת ארה"ב תאפשר המשך פיתוח של ה-H100 בסין, כך שהפרויקט נראה לעת עתה חזרה למסלול. לפי Nvidia, ה-H100 יהיה זמין "מאוחר יותר השנה." אם הצלחת שבב A100 של הדור הקודם היא אינדיקציה כלשהי, ה-H100 עשוי להפעיל מגוון גדול של יישומי AI פורצי דרך בשנים הבאות.