ChatGPT تنفجر، ويعتمد العمود الفقري لنموذج الذكاء الاصطناعي الخاص بها على بطاقات الرسومات Nvidia. وقال أحد المحللين تم استخدام حوالي 10000 وحدة معالجة رسوميات Nvidia لتدريب ChatGPT، ومع استمرار توسع الخدمة، تزداد الحاجة إلى وحدات معالجة الرسومات. يمكن لأي شخص عاش صعود العملات المشفرة في عام 2021 أن يشم رائحة نقص GPU في الأفق.
محتويات
- لماذا تم تصميم وحدات معالجة الرسومات Nvidia للذكاء الاصطناعي
- كل ذلك يأتي إلى الذاكرة
- احتياجات مختلفة، يموت مختلفة
لقد رأيت عددًا قليلاً من المراسلين يبنون هذا الارتباط الدقيق، لكنه مضلل. لقد ولت أيام نقص وحدة معالجة الرسومات من النوع المشفر. على الرغم من أننا سنشهد على الأرجح زيادة في الطلب عليها بطاقات الرسومات ومع استمرار ازدهار الذكاء الاصطناعي، لا يتم توجيه هذا الطلب نحو العالم أفضل بطاقات الرسومات مثبتة في منصات الألعاب.
مقاطع الفيديو الموصى بها
لماذا تم تصميم وحدات معالجة الرسومات Nvidia للذكاء الاصطناعي
أولا، سوف نتناول لماذا نفيديا
متعلق ب
- يستخدم Wix ChatGPT لمساعدتك في إنشاء موقع ويب كامل بسرعة
- يواجه صانع ChatGPT OpenAI تحقيقًا من لجنة التجارة الفيدرالية (FTC) بشأن قوانين حماية المستهلك
- تم تعطيل ميزة تصفح Bing في ChatGPT بسبب خلل في الوصول إلى نظام حظر الاشتراك غير المدفوع
CUDA هي واجهة برمجة التطبيقات (API) الخاصة بشركة Nvidia والتي يتم استخدامها في كل شيء بدءًا من أغلى وحدات معالجة الرسومات لمراكز البيانات وحتى أرخص وحدات معالجة الرسومات للألعاب. يتم دعم تسريع CUDA في مكتبات التعلم الآلي مثل TensorFlow، والتدريب السريع بشكل كبير و الإستنباط. CUDA هي القوة الدافعة وراء شركة AMD متأخرة جدًا في مجال الذكاء الاصطناعي مقارنة بنفيديا.
ومع ذلك، لا تخلط بين CUDA ونواة CUDA من Nvidia. CUDA هي المنصة التي تعمل عليها الكثير من تطبيقات الذكاء الاصطناعي، في حين أن نوى CUDA هي مجرد النوى الموجودة داخل وحدات معالجة الرسومات Nvidia. إنهم يتشاركون في الاسم، ويتم تحسين نوى CUDA بشكل أفضل لتشغيل تطبيقات CUDA. تحتوي وحدات معالجة الرسومات الخاصة بالألعاب من Nvidia على نوى CUDA وتدعم تطبيقات CUDA.
نوى Tensor هي في الأساس نوى مخصصة للذكاء الاصطناعي. إنهم يتعاملون مع ضرب المصفوفات، وهي الخلطة السرية التي تعمل على تسريع تدريب الذكاء الاصطناعي. الفكرة هنا بسيطة. يمكنك مضاعفة مجموعات متعددة من البيانات في وقت واحد، وتدريب نماذج الذكاء الاصطناعي بشكل أسرع بشكل كبير من خلال توليد النتائج المحتملة. تتعامل معظم المعالجات مع المهام بطريقة خطية، بينما تستطيع نوى Tensor إنشاء سيناريوهات بسرعة في دورة ساعة واحدة.
مرة أخرى، وحدات معالجة الرسومات الخاصة بألعاب Nvidia مثل آر تي إكس 4080 تحتوي على نوى Tensor (وأحيانًا أكثر من وحدات معالجة الرسومات لمراكز البيانات المكلفة). ومع ذلك، على الرغم من جميع المواصفات التي يتعين على بطاقات Nvidia تسريع نماذج الذكاء الاصطناعي، إلا أن أيًا منها لا يقل أهمية عن الذاكرة. ولا تحتوي وحدات معالجة الرسومات المخصصة للألعاب من Nvidia على الكثير من الذاكرة.
كل ذلك يأتي إلى الذاكرة
"حجم الذاكرة هو الأهم"، بحسب جيفري هيتون، مؤلف العديد من الكتب حول الذكاء الاصطناعي والأستاذ بجامعة واشنطن في سانت لويس. "إذا لم يكن لديك ما يكفي من GPU
هيتون، الذي لديه قناة على اليوتيوب مخصصًا لمدى جودة تشغيل نماذج الذكاء الاصطناعي على وحدات معالجة رسومات معينة، أشار إلى أن نوى CUDA مهمة أيضًا، ولكن سعة الذاكرة هي العامل المهيمن عندما يتعلق الأمر بكيفية عمل وحدة معالجة الرسومات للذكاء الاصطناعي. ال آر تي إكس 4090 يتمتع بذاكرة كبيرة وفقًا لمعايير الألعاب - 24 جيجابايت من GDDR6X - ولكنه قليل جدًا مقارنة بوحدة معالجة الرسومات من فئة مركز البيانات. على سبيل المثال، تحتوي أحدث وحدة معالجة رسوميات H100 من Nvidia على ذاكرة HBM3 بسعة 80 جيجابايت، بالإضافة إلى ناقل ذاكرة ضخم يبلغ 5120 بت.
يمكنك تدبر أمرك بموارد أقل، لكنك لا تزال بحاجة إلى قدر كبير من الذاكرة. يوصي هيتون بأن يكون لدى المبتدئين ما لا يقل عن 12 جيجابايت، في حين أن مهندس التعلم الآلي النموذجي سيكون لديه واحد أو اثنين من المحترفين بسعة 48 جيجابايت وحدات معالجة الرسومات نفيديا. وفقًا لهيتون، "ستنخفض معظم أعباء العمل بشكل أكبر في مجموعة A100 الفردية إلى مجموعة A100 الثمانية." تحتوي وحدة معالجة الرسومات Nvidia's A100 على 40 جيجابايت ذاكرة.
يمكنك رؤية هذا القياس عمليًا أيضًا. أنظمة بوجيه يُظهر جهاز A100 واحد بذاكرة سعة 40 جيجابايت يعمل بسرعة مضاعفة تقريبًا مثل جهاز RTX 3090 واحد بذاكرة تبلغ 24 جيجابايت. وهذا على الرغم من حقيقة أن RTX 3090 يحتوي على ضعف عدد نوى CUDA تقريبًا وعدد نوى Tensor تقريبًا.
الذاكرة هي عنق الزجاجة، وليست قوة المعالجة الخام. وذلك لأن تدريب نماذج الذكاء الاصطناعي يعتمد على مجموعات كبيرة من البيانات، وكلما زاد عدد تلك البيانات التي يمكنك تخزينها في الذاكرة، كلما تمكنت من تدريب النموذج بشكل أسرع (وأكثر دقة).
احتياجات مختلفة، يموت مختلفة
بشكل عام، لا تعد وحدات معالجة الرسومات الخاصة بالألعاب من Nvidia مناسبة للذكاء الاصطناعي نظرًا لقلة ذاكرة الفيديو مقارنة بالأجهزة على مستوى المؤسسات، ولكن هناك مشكلة منفصلة هنا أيضًا. لا تقوم وحدات معالجة الرسومات لمحطة العمل الخاصة بـ Nvidia عادةً بمشاركة قالب GPU مع بطاقات الألعاب الخاصة بها.
على سبيل المثال، يستخدم A100 الذي أشار إليه هيتون وحدة معالجة الرسومات GA100، وهي عبارة عن قالب من مجموعة Ampere من Nvidia والتي لم يتم استخدامها مطلقًا على البطاقات التي تركز على الألعاب (بما في ذلك البطاقات المتطورة). آر تي إكس 3090 تي آي). وبالمثل، يستخدم أحدث H100 من Nvidia بنية مختلفة تمامًا عن سلسلة RTX 40، مما يعني أنه يستخدم قالبًا مختلفًا أيضًا.
هناك استثناءات. وحدة معالجة الرسومات AD102 من Nvidia، الموجودة داخل آر تي إكس 4090 وRTX 4080، يُستخدم أيضًا في مجموعة صغيرة من وحدات معالجة الرسومات الخاصة بالمؤسسات Ada Lovelace (L40 وRTX 6000). ومع ذلك، في معظم الحالات، لا تستطيع Nvidia إعادة استخدام وحدة معالجة الرسومات الخاصة بالألعاب لبطاقة مركز البيانات. إنهم عوالم منفصلة.
هناك بعض الاختلافات الأساسية بين النقص في وحدة معالجة الرسومات الذي شهدناه بسبب تعدين العملات المشفرة وارتفاع شعبية نماذج الذكاء الاصطناعي. وفقًا لهيتون، يتطلب نموذج GPT-3 أكثر من 1000 وحدة معالجة رسوميات A100 Nvidia للتدريب وحوالي ثمانية للتشغيل. تتمتع وحدات معالجة الرسومات هذه بإمكانية الوصول إلى اتصال NVLink ذي النطاق الترددي العالي أيضًا، في حين لا تتمتع وحدات معالجة الرسومات من سلسلة RTX 40 من Nvidia بذلك. إنها تقارن بحد أقصى 24 جيجابايت من الذاكرة على بطاقات ألعاب Nvidia بعدة مئات من الذاكرة على وحدات معالجة الرسومات مثل A100 مع NVLink.
هناك بعض المخاوف الأخرى، مثل تخصيص قوالب الذاكرة لوحدات معالجة الرسومات الاحترافية بدلاً من وحدات معالجة الرسومات المخصصة للألعاب، ولكن أيام التسرع إلى مركز Micro المحلي أو Best Buy للحصول على فرصة العثور على وحدة معالجة الرسومات في المخزون هي أيام ذهب. لخص هيتون هذه النقطة بشكل جيد: "يقدر أن نماذج اللغات الكبيرة، مثل ChatGPT، تتطلب ما لا يقل عن ثمانية وحدات معالجة رسوميات للتشغيل. تفترض هذه التقديرات وحدات معالجة الرسومات A100 المتطورة. تكهناتي هي أن هذا قد يتسبب في نقص في وحدات معالجة الرسومات المتطورة، ولكنه قد لا يؤثر على وحدات معالجة الرسومات من فئة اللاعبين، مع وجود عدد أقل من وحدات معالجة الرسومات
توصيات المحررين
- يطالب كبار المؤلفين بالدفع من شركات الذكاء الاصطناعي مقابل استخدام أعمالهم
- بإمكان Google Bard الآن التحدث، لكن هل يمكنه إخفاء ChatGPT؟
- انخفضت حركة المرور على موقع ChatGPT للمرة الأولى
- وجد الاستطلاع أن 81% يعتقدون أن ChatGPT يمثل خطرًا أمنيًا
- قد يقوم منافس ChatGPT من Apple بكتابة التعليمات البرمجية لك تلقائيًا
ترقية نمط حياتكتساعد الاتجاهات الرقمية القراء على متابعة عالم التكنولوجيا سريع الخطى من خلال أحدث الأخبار ومراجعات المنتجات الممتعة والمقالات الافتتاحية الثاقبة ونظرات خاطفة فريدة من نوعها.