מנכ"ל Nvidia, Jensen Huang, פתח את ועידת הטכנולוגיה הגרפית (GTC) של החברה עם נאום מרכזי מלא בהכרזות. החשיפות העיקריות כוללות את המעבד הדיסקרטי הראשון של Nvidia, בשם גרייס, וכן את ארכיטקטורת ה-Hopper של הדור הבא שלה, שתגיע מאוחר יותר ב-2022.
ה-Grace CPU Superchip הוא המעבד הבדיד הראשון של Nvidia אי פעם, אבל הוא לא יהיה בלב שלך מחשב המשחקים הבא. Nvidia הכריזה על Grace CPU בשנת 2021, אבל ה-Superchip הזה, כפי ש-Nvidia מכנה אותו, הוא משהו חדש. זה מרכיב שני מעבדי גרייס, בדומה ל ה-M1 Ultra של אפל, מחובר באמצעות טכנולוגיית NVLink של Nvidia.
בניגוד ל-M1 Ultra, לעומת זאת, ה-Grace Superchip אינו בנוי לביצועים כלליים. ה-GPU בעל 144 ליבות בנוי עבור A.I., מדעי נתונים ויישומים עם דרישות זיכרון גבוהות. המעבד עדיין משתמש בליבות ARM, למרות אלו של Nvidia נטש הצעת 40 מיליארד דולר לרכוש את החברה.
קָשׁוּר
- מחשב העל של Nvidia עשוי להביא עידן חדש של ChatGPT
- כלי Guardrails החדש של Nvidia פותר את הבעיה הגדולה ביותר עם צ'אטבוטים של AI
- Nvidia סוף סוף יצרה כרטיס מסך זעיר RTX 4000 (אבל אתה כנראה לא רוצה אותו)
בנוסף ל-Grace Superchip, Nvidia הראתה את ארכיטקטורת ה-Hopper מהדור הבא שלה. זו לא הארכיטקטורה שמניעה את ה-RTX 4080, לפי ספקולציות. במקום זאת, הוא בנוי עבור מאיצי מרכז הנתונים של Nvidia. Nvidia מציגה לראשונה את הארכיטקטורה ב-H100 GPU, שתחליף
ה-A100 הקודם של Nvidia.סרטונים מומלצים
Nvidia מכנה את H100 "השבב המתקדם בעולם". הוא נבנה תוך שימוש בתהליך הייצור N4 של יצרנית השבבים TSMC, ארוז בכמות מדהימה של 80 מיליארד טרנזיסטורים. כאילו זה לא מספיק, זה גם ה-GPU הראשון שתומך בזיכרון PCIe 5.0 ו-HBM3. Nvidia אומרת שרק 20 H100 GPUs יכולים "לקיים את המקבילה לתעבורת האינטרנט של העולם כולו", מה שמציג את העוצמה של PCIe 5.0 ו-HBM3.
לקוחות יוכלו לגשת ל-GPU דרך שרתי DGX מהדור הרביעי של Nvidia, המשלבים שמונה H100 GPUs ו-640GB של זיכרון HBM3. מכונות אלו, לפי Nvidia, מספקות 32 petaFLOPs של A.I. ביצועים, שהם פי שישה מה-A100 של הדור האחרון.
אם ה-DGX לא מציע מספיק כוח, Nvidia מציעה גם את ה-DGX H100 SuperPod שלה. זה מבוסס על כך ש- Nvidia משכירה את זה מאיצי SuperPod בשנה שעברה, מה שמאפשר למי שאין לו תקציב למרכזי נתונים מסיביים לרתום את הכוח של A.I. המכונה הזאת משלב 32 מערכות DGX H100, ומספק זיכרון HBM3 עצום של 20TB ו-1 exoFLOP של A.I. ביצועים.
Nvidia מציגה לראשונה את הארכיטקטורה החדשה עם מחשב-על משלה EOS, הכולל 18 DGX H100 SuperPods עבור סך של 4,608 H100 GPUs. הפעלת מערכת זו היא הדור הרביעי של NVLink של Nvidia, המספק חיבור רוחב פס גבוה בין אשכולות מסיביים של GPUs.
ככל שמספר ה-GPU גדל, Nvidia הראתה ש-A100 מהדור האחרון יהיה שטוח. להופר ול-NVLink מהדור הרביעי אין את הבעיה הזו, לפי החברה. ככל שמספר ה-GPU גדל לאלפים, Nvidia אומרת שמערכות מבוססות H100 יכולות לספק A.I מהיר פי תשעה. הדרכה מאשר מערכות מבוססות A100.
ארכיטקטורת הדור הבא הזו מספקת "יתרונות ביצועים משנים משחק", על פי Nvidia. למרות מרגש עבור העולם של A.I. ומחשוב בעל ביצועים גבוהים, אנחנו עדיין מחכים בקוצר רוח להכרזות סביב Nvidia הדור הבא של RTX 4080, שלפי השמועות יושק מאוחר יותר השנה.
המלצות עורכים
- Nvidia לא רוצה שתדע על ה-GPU החדש השנוי במחלוקת שלה
- אתה אמור להשתמש ב-5 תכונות ה-GPU של Nvidia שנשכחו
- אופס - Nvidia חשפה זה עתה בטעות GPU חדש לגמרי
- Nvidia בנתה GPU כפול מאסיבי כדי להפעיל דגמים כמו ChatGPT
- עברתי ל-AMD GPU למשך חודש - זו הסיבה שאני לא מתגעגע ל-Nvidia
שדרג את אורח החיים שלךמגמות דיגיטליות עוזרות לקוראים לעקוב אחר עולם הטכנולוגיה המהיר עם כל החדשות האחרונות, ביקורות מהנות על מוצרים, מאמרי מערכת מעוררי תובנות והצצות מיוחדות במינן.