नहीं, ChatGPT किसी अन्य GPU की कमी का कारण नहीं बनेगा

चैटजीपीटी विस्फोट हो रहा है, और इसके एआई मॉडल की रीढ़ एनवीडिया ग्राफिक्स कार्ड पर निर्भर है। एक विश्लेषक ने कहा चैटजीपीटी को प्रशिक्षित करने के लिए लगभग 10,000 एनवीडिया जीपीयू का उपयोग किया गया था, और जैसे-जैसे सेवा का विस्तार जारी है, वैसे-वैसे जीपीयू की आवश्यकता भी बढ़ रही है। जो कोई भी 2021 में क्रिप्टो के उदय से गुजरा है वह इसकी गंध महसूस कर सकता है जीपीयू की कमी आने ही वाला।

अंतर्वस्तु

  • एनवीडिया जीपीयू एआई के लिए क्यों बनाए गए हैं?
  • यह सब स्मृति में आ जाता है
  • अलग-अलग ज़रूरतें, अलग-अलग मरना

मैंने कुछ पत्रकारों को सटीक संबंध बनाते देखा है, लेकिन यह गुमराह करने वाला है। क्रिप्टो-संचालित-प्रकार जीपीयू की कमी के दिन हमारे पीछे हैं। हालाँकि हमें संभवतः मांग में वृद्धि देखने को मिलेगी ग्राफिक्स कार्ड जैसे-जैसे एआई में उछाल जारी है, वह मांग इस ओर निर्देशित नहीं है सर्वोत्तम ग्राफिक्स कार्ड में स्थापित गेमिंग रिग्स.

अनुशंसित वीडियो

एनवीडिया जीपीयू एआई के लिए क्यों बनाए गए हैं?

एनवीडिया के RTX A6000 GPU का एक रेंडर।

सबसे पहले, हम पता लगाएंगे कि एनवीडिया क्यों ग्राफिक्स कार्ड एआई के लिए बहुत बढ़िया हैं। एनवीडिया ने पिछले कई वर्षों से एआई पर दांव लगाया है, और चैटजीपीटी के बढ़ने के बाद कंपनी के शेयर की कीमत बढ़ने से इसका भुगतान हुआ है। ऐसे दो कारण हैं जिनकी वजह से आप एनवीडिया को एआई प्रशिक्षण के केंद्र में देखते हैं: टेंसर कोर और सीयूडीए।

संबंधित

  • Wix आपको शीघ्रता से संपूर्ण वेबसाइट बनाने में मदद करने के लिए ChatGPT का उपयोग करता है
  • चैटजीपीटी निर्माता ओपनएआई को उपभोक्ता संरक्षण कानूनों पर एफटीसी जांच का सामना करना पड़ रहा है
  • चैटजीपीटी का बिंग ब्राउजिंग फीचर पेवॉल एक्सेस दोष के कारण अक्षम हो गया

CUDA एनवीडिया का एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस (एपीआई) है जिसका उपयोग इसके सबसे महंगे डेटा सेंटर जीपीयू से लेकर इसके सभी में किया जाता है। सबसे सस्ता गेमिंग जीपीयू। CUDA एक्सेलेरेशन को TensorFlow जैसी मशीन लर्निंग लाइब्रेरी, बेहद तेज़ गति वाले प्रशिक्षण और में समर्थित किया गया है अनुमान. CUDA इसके पीछे प्रेरक शक्ति है AMD AI के मामले में बहुत पीछे है एनवीडिया की तुलना में।

हालाँकि, CUDA को Nvidia के CUDA कोर के साथ भ्रमित न करें। CUDA वह प्लेटफ़ॉर्म है जिस पर ढेर सारे AI ऐप्स चलते हैं, जबकि CUDA कोर सिर्फ Nvidia GPU के अंदर के कोर हैं। वे एक नाम साझा करते हैं, और CUDA अनुप्रयोगों को चलाने के लिए CUDA कोर बेहतर अनुकूलित हैं। एनवीडिया के गेमिंग जीपीयू में CUDA कोर हैं और वे CUDA ऐप्स को सपोर्ट करते हैं।

टेंसर कोर मूल रूप से समर्पित एआई कोर हैं। वे मैट्रिक्स गुणन को संभालते हैं, जो कि गुप्त सॉस है जो एआई प्रशिक्षण को गति देता है। यहाँ विचार सरल है. डेटा के कई सेटों को एक साथ गुणा करें, और संभावित परिणाम उत्पन्न करके एआई मॉडल को तेजी से प्रशिक्षित करें। अधिकांश प्रोसेसर कार्यों को रैखिक तरीके से संभालते हैं, जबकि टेन्सर कोर एक ही घड़ी चक्र में तेजी से परिदृश्य उत्पन्न कर सकते हैं।

फिर से, एनवीडिया के गेमिंग जीपीयू जैसे आरटीएक्स 4080 टेन्सर कोर हैं (और कभी-कभी महंगे डेटा सेंटर जीपीयू से भी अधिक)। हालाँकि, सभी विशिष्टताओं के लिए एनवीडिया कार्ड को एआई मॉडल में तेजी लानी होती है, उनमें से कोई भी मेमोरी जितना महत्वपूर्ण नहीं है। और एनवीडिया के गेमिंग जीपीयू में बहुत अधिक मेमोरी नहीं है।

यह सब स्मृति में आ जाता है

एचबीएम मेमोरी का ढेर.
विकिमीडिया

आर्टिफिशियल इंटेलिजेंस पर कई पुस्तकों के लेखक और सेंट लुइस में वाशिंगटन विश्वविद्यालय के प्रोफेसर जेफरी हेटन के अनुसार, "मेमोरी का आकार सबसे महत्वपूर्ण है।" “यदि आपके पास पर्याप्त GPU नहीं है टक्कर मारना, आपका मॉडल फिटिंग/अनुमान बस रुक जाता है।"

हीटन, कौन एक यूट्यूब चैनल है एआई मॉडल कुछ जीपीयू पर कितनी अच्छी तरह चलते हैं, इसके लिए समर्पित, नोट किया गया कि सीयूडीए कोर भी महत्वपूर्ण हैं, लेकिन एआई के लिए जीपीयू कैसे काम करता है, इसकी मेमोरी क्षमता प्रमुख कारक है। आरटीएक्स 4090 गेमिंग मानकों के अनुसार इसमें बहुत अधिक मेमोरी है - 24GB GDDR6X - लेकिन डेटा सेंटर-क्लास GPU की तुलना में बहुत कम है। उदाहरण के लिए, एनवीडिया के नवीनतम H100 GPU में 80GB की HBM3 मेमोरी है, साथ ही एक विशाल 5,120-बिट मेमोरी बस भी है।

आप कम खर्च में काम चला सकते हैं, लेकिन आपको अभी भी बहुत सारी मेमोरी की आवश्यकता है। हीटन का सुझाव है कि शुरुआती लोगों के पास 12GB से कम नहीं होना चाहिए, जबकि एक सामान्य मशीन लर्निंग इंजीनियर के पास एक या दो 48GB प्रोफेशनल होंगे एनवीडिया जीपीयू। हीटन के अनुसार, "अधिकांश कार्यभार एकल A100 से आठ A100 रेंज में अधिक गिरेंगे।" एनवीडिया के A100 GPU में 40GB है याद।

आप इस स्केलिंग को क्रियान्वित भी देख सकते हैं। पगेट सिस्टम 40GB मेमोरी वाला सिंगल A100, 24GB मेमोरी वाले सिंगल RTX 3090 से लगभग दोगुना तेज़ प्रदर्शन दिखाता है। और यह इस तथ्य के बावजूद है कि RTX 3090 में लगभग दोगुने CUDA कोर और लगभग उतने ही Tensor कोर हैं।

स्मृति बाधा है, कच्ची प्रसंस्करण शक्ति नहीं। ऐसा इसलिए है क्योंकि एआई मॉडल का प्रशिक्षण बड़े डेटासेट पर निर्भर करता है, और जितना अधिक डेटा आप मेमोरी में संग्रहीत कर सकते हैं, उतनी ही तेजी से (और अधिक सटीक) आप एक मॉडल को प्रशिक्षित कर सकते हैं।

अलग-अलग ज़रूरतें, अलग-अलग मरना

हॉपर H100 ग्राफ़िक्स कार्ड.

एनवीडिया के गेमिंग जीपीयू आम तौर पर एआई के लिए उपयुक्त नहीं हैं क्योंकि एंटरप्राइज़-ग्रेड हार्डवेयर की तुलना में उनमें कितनी कम वीडियो मेमोरी है, लेकिन यहां भी एक अलग मुद्दा है। एनवीडिया के वर्कस्टेशन जीपीयू आमतौर पर अपने गेमिंग कार्ड के साथ जीपीयू डाई साझा नहीं करते हैं।

उदाहरण के लिए, हीटन द्वारा संदर्भित ए100 जीए100 जीपीयू का उपयोग करता है, जो एनवीडिया की एम्पीयर रेंज से एक डाई है जिसका उपयोग गेमिंग-केंद्रित कार्ड (हाई-एंड सहित) पर कभी नहीं किया गया था। आरटीएक्स 3090 टीआई). इसी तरह, एनवीडिया का नवीनतम एच100 आरटीएक्स 40-सीरीज़ की तुलना में पूरी तरह से अलग आर्किटेक्चर का उपयोग करता है, जिसका अर्थ है कि यह एक अलग डाई का भी उपयोग करता है।

कुछ अपवाद भी हैं. एनवीडिया का AD102 GPU, जो अंदर है आरटीएक्स 4090 और RTX 4080, का उपयोग Ada Lovelace एंटरप्राइज़ GPU (L40 और RTX 6000) की एक छोटी श्रृंखला में भी किया जाता है। हालाँकि, ज्यादातर मामलों में, एनवीडिया डेटा सेंटर कार्ड के लिए गेमिंग जीपीयू डाई का पुन: उपयोग नहीं कर सकता है। वे अलग दुनिया हैं।

क्रिप्टो-माइनिंग और एआई मॉडल की लोकप्रियता में वृद्धि के कारण हमने देखी गई जीपीयू की कमी के बीच कुछ बुनियादी अंतर हैं। हीटन के अनुसार, GPT-3 मॉडल को ट्रेनों के लिए 1,000 से अधिक A100 Nvidia GPU और चलाने के लिए लगभग आठ की आवश्यकता होती है। इन जीपीयू के पास उच्च-बैंडविड्थ एनवीलिंक इंटरकनेक्ट तक पहुंच है, जबकि एनवीडिया के आरटीएक्स 40-सीरीज़ जीपीयू के पास नहीं है। यह एनवीडिया के गेमिंग कार्ड पर अधिकतम 24 जीबी मेमोरी की तुलना एनवीलिंक के साथ ए100 जैसे जीपीयू पर कई सौ से कर रहा है।

कुछ अन्य चिंताएँ भी हैं, जैसे गेमिंग वाले की तुलना में पेशेवर जीपीयू के लिए मेमोरी डेज़ आवंटित किया जाना, लेकिन स्टॉक में जीपीयू ढूंढने के मौके के लिए अपने स्थानीय माइक्रो सेंटर या बेस्ट बाय पर जाने के दिन आ गए हैं गया। हीटन ने उस बिंदु को अच्छी तरह से संक्षेप में प्रस्तुत किया: “चैटजीपीटी जैसे बड़े भाषा मॉडल को चलाने के लिए कम से कम आठ जीपीयू की आवश्यकता होती है। ऐसे अनुमान उच्च-स्तरीय A100 GPU का अनुमान लगाते हैं। मेरा अनुमान है कि इससे उच्च-स्तरीय जीपीयू की कमी हो सकती है, लेकिन गेमर-श्रेणी के जीपीयू पर कम प्रभाव नहीं पड़ेगा टक्कर मारना.”

संपादकों की सिफ़ारिशें

  • शीर्ष लेखक अपने काम का उपयोग करने के लिए एआई फर्मों से भुगतान की मांग करते हैं
  • Google Bard अब बोल सकता है, लेकिन क्या यह ChatGPT को ख़त्म कर सकता है?
  • ChatGPT वेबसाइट का ट्रैफ़िक पहली बार गिरा है
  • सर्वेक्षण में पाया गया कि 81% लोग सोचते हैं कि चैटजीपीटी एक सुरक्षा जोखिम है
  • Apple का ChatGPT प्रतिद्वंद्वी स्वचालित रूप से आपके लिए कोड लिख सकता है

अपनी जीवनशैली को उन्नत करेंडिजिटल ट्रेंड्स पाठकों को सभी नवीनतम समाचारों, मजेदार उत्पाद समीक्षाओं, व्यावहारिक संपादकीय और एक तरह की अनूठी झलक के साथ तकनीक की तेज़ गति वाली दुनिया पर नज़र रखने में मदद करता है।

श्रेणियाँ

हाल का

स्पाइडर-मैन: नो वे होम की मोर फन स्टफ फिल्म में नया क्या है

स्पाइडर-मैन: नो वे होम की मोर फन स्टफ फिल्म में नया क्या है

स्पाइडर-मैन: नो वे होम अपने विस्तारित कट, "द मो...

द रिंग्स ऑफ पावर: देखने से पहले आपको क्या जानना चाहिए

द रिंग्स ऑफ पावर: देखने से पहले आपको क्या जानना चाहिए

के प्रीमियर के साथ मध्य-पृथ्वी की लड़ाई नजदीक आ...