არა, ChatGPT არ გამოიწვევს კიდევ ერთი GPU-ს დეფიციტს

ChatGPT ფეთქდება და მისი AI მოდელის ხერხემალი ეყრდნობა Nvidia-ს გრაფიკულ ბარათებს. ერთ-ერთმა ანალიტიკოსმა თქვა დაახლოებით 10,000 Nvidia GPU გამოიყენებოდა ChatGPT-ის მოსამზადებლად, და რამდენადაც სერვისი აგრძელებს გაფართოებას, ასევე იზრდება GPU-ების საჭიროება. ყველას, ვინც 2021 წელს კრიპტოვალუტის აღზევებას განიცდიდა, შეუძლია სუნი ა GPU დეფიციტი ჰორიზონტზე.

შინაარსი

  • რატომ არის აგებული Nvidia GPU-ები AI-სთვის
  • ეს ყველაფერი მეხსიერებაში მოდის
  • სხვადასხვა მოთხოვნილებები, სხვადასხვა კვდება

მე მინახავს რამდენიმე ჟურნალისტი, რომელიც აყალიბებს ამ კავშირს, მაგრამ ეს არასწორია. კრიპტო-ორიენტირებული ტიპის GPU-ს დეფიციტის დღეები უკან გვრჩება. მიუხედავად იმისა, რომ ჩვენ სავარაუდოდ ვნახავთ მოთხოვნის ზრდას გრაფიკული ბარათები რადგან AI აგრძელებს ბუმს, ეს მოთხოვნა არ არის მიმართული საუკეთესო გრაფიკული ბარათები დაინსტალირებული სათამაშო აპარატები.

რეკომენდებული ვიდეოები

რატომ არის აგებული Nvidia GPU-ები AI-სთვის

Nvidia-ს RTX A6000 GPU-ს რენდერი.

პირველ რიგში, ჩვენ განვიხილავთ რატომ Nvidia გრაფიკული ბარათები ძალიან კარგია AI-სთვის. Nvidia ბოლო რამდენიმე წლის განმავლობაში ახორციელებდა ფსონს AI-ზე და ეს გადაიხადა კომპანიის აქციების ფასის მატებით ChatGPT-ის ზრდის შემდეგ. არსებობს ორი მიზეზი, რის გამოც Nvidia-ს ხედავთ ხელოვნური ინტელექტის სწავლების ცენტრში: ტენზორული ბირთვები და CUDA.

დაკავშირებული

  • Wix იყენებს ChatGPT-ს, რათა დაგეხმაროთ სწრაფად შექმნათ მთელი ვებსაიტი
  • ChatGPT-ის შემქმნელი OpenAI-ის წინაშე დგას FTC გამოძიება მომხმარებელთა დაცვის კანონების გამო
  • ChatGPT-ის Bing-ის დათვალიერების ფუნქცია გამორთულია paywall-ზე წვდომის ხარვეზის გამო

CUDA არის Nvidia-ს აპლიკაციის პროგრამირების ინტერფეისი (API), რომელიც გამოიყენება ყველაფერში, მისი ყველაზე ძვირადღირებული მონაცემთა ცენტრის GPU-დან დამთავრებული. ყველაზე იაფი სათამაშო GPU. CUDA აჩქარება მხარდაჭერილია მანქანათმცოდნეობის ბიბლიოთეკებში, როგორიცაა TensorFlow, უზომო სიჩქარის ტრენინგი და დასკვნა. CUDA არის მამოძრავებელი ძალა უკან AMD იმდენად ჩამორჩება AI-ს Nvidia-სთან შედარებით.

თუმცა, ნუ აურიეთ CUDA Nvidia-ს CUDA ბირთვებთან. CUDA არის პლატფორმა, რომელზედაც უამრავი ხელოვნური ინტელექტის აპი მუშაობს, ხოლო CUDA ბირთვები არის მხოლოდ ბირთვები Nvidia GPU-ებში. ისინი იზიარებენ სახელს და CUDA ბირთვები უკეთესია ოპტიმიზირებული CUDA აპლიკაციების გასაშვებად. Nvidia-ს სათამაშო GPU-ებს აქვთ CUDA ბირთვები და ისინი მხარს უჭერენ CUDA აპებს.

ტენსორის ბირთვები ძირითადად არის გამოყოფილი AI ბირთვები. ისინი ამუშავებენ მატრიცის გამრავლებას, რაც საიდუმლო სოუსია, რომელიც აჩქარებს AI ვარჯიშს. იდეა აქ მარტივია. გაამრავლეთ მონაცემთა რამდენიმე ნაკრები ერთდროულად და ავარჯიშეთ ხელოვნური ინტელექტის მოდელები ექსპონენტურად უფრო სწრაფად, შესაძლო შედეგების გამომუშავებით. პროცესორების უმეტესობა ამოცანებს ახორციელებს ხაზოვანი გზით, ხოლო Tensor ბირთვებს შეუძლიათ სწრაფად წარმოქმნან სცენარები ერთი საათის ციკლში.

ისევ, Nvidia-ს სათამაშო GPU-ები მოსწონს RTX 4080 აქვს Tensor ბირთვები (და ზოგჯერ უფრო ძვირი მონაცემთა ცენტრის GPU-ები). თუმცა, ყველა იმ სპეციფიკისთვის, რომ Nvidia-ს ბარათებმა უნდა დააჩქაროს AI მოდელები, არცერთი მათგანი არ არის ისეთი მნიშვნელოვანი, როგორც მეხსიერება. და Nvidia-ს სათამაშო GPU-ებს არ აქვთ დიდი მეხსიერება.

ეს ყველაფერი მეხსიერებაში მოდის

HBM მეხსიერების დასტა.
ვიკიმედია

"მეხსიერების ზომა ყველაზე მნიშვნელოვანია", - ამბობს ჯეფრი ჰიტონი, ხელოვნური ინტელექტის შესახებ რამდენიმე წიგნის ავტორი და სენტ-ლუისის ვაშინგტონის უნივერსიტეტის პროფესორი. ”თუ არ გაქვთ საკმარისი GPU ოპერატიული მეხსიერებათქვენი მოდელის მორგება/დასკვნა უბრალოდ ჩერდება“.

ჰიტონი, რომელიც აქვს YouTube არხი ეძღვნება რამდენად კარგად მუშაობს AI მოდელები გარკვეულ GPU-ზე, აღნიშნა, რომ CUDA ბირთვები ასევე მნიშვნელოვანია, მაგრამ მეხსიერების მოცულობა არის დომინანტური ფაქტორი, როდესაც საქმე ეხება GPU ფუნქციონირებას AI-სთვის. The RTX 4090 აქვს ბევრი მეხსიერება სათამაშო სტანდარტებით - 24 GB GDDR6X - მაგრამ ძალიან ცოტაა მონაცემთა ცენტრის კლასის GPU-სთან შედარებით. მაგალითად, Nvidia-ს უახლეს H100 GPU-ს აქვს 80 GB HBM3 მეხსიერება, ისევე როგორც მასიური 5,120-ბიტიანი მეხსიერების ავტობუსი.

თქვენ შეგიძლიათ გაუმკლავდეთ ნაკლებს, მაგრამ მაინც გჭირდებათ ბევრი მეხსიერება. Heaton რეკომენდაციას აძლევს დამწყებთათვის არანაკლებ 12 GB, ხოლო ტიპიური მანქანათმცოდნე ინჟინერს ექნება ერთი ან ორი 48 GB პროფესიონალი. Nvidia GPU. ჰიტონის თქმით, „სამუშაოების უმეტესობა უფრო მეტად დაეცემა ერთ A100-დან რვა A100 დიაპაზონში“. Nvidia-ს A100 GPU აქვს 40 GB მეხსიერება.

თქვენ შეგიძლიათ ნახოთ ეს მასშტაბირება მოქმედებაშიც. Puget Systems აჩვენებს ერთ A100-ს 40 GB მეხსიერებით, რომელიც მუშაობს დაახლოებით ორჯერ უფრო სწრაფად, ვიდრე ერთი RTX 3090 თავისი 24 GB მეხსიერებით. და ეს იმისდა მიუხედავად, რომ RTX 3090-ს აქვს თითქმის ორჯერ მეტი CUDA ბირთვი და თითქმის იმდენი Tensor ბირთვი.

მეხსიერება არის ბოსტნეული და არა ნედლი გადამამუშავებელი ძალა. ეს იმიტომ ხდება, რომ AI მოდელების ვარჯიში ეყრდნობა მონაცემთა დიდ ნაკრებებს და რაც უფრო მეტ მონაცემს შეინახავთ მეხსიერებაში, მით უფრო სწრაფად (და უფრო ზუსტად) შეძლებთ მოდელის მომზადებას.

სხვადასხვა მოთხოვნილებები, სხვადასხვა კვდება

Hopper H100 გრაფიკული ბარათი.

Nvidia-ს სათამაშო GPU-ები ზოგადად არ არის შესაფერისი AI-სთვის იმის გამო, რომ მათ მცირე ვიდეო მეხსიერება აქვთ საწარმოს კლასის აპარატურასთან შედარებით, მაგრამ აქაც ცალკე საკითხია. Nvidia-ს სამუშაო სადგურის GPU-ები ჩვეულებრივ არ იზიარებენ GPU-ს სათამაშო ბარათებთან ერთად.

მაგალითად, A100, რომელზეც Heaton-მა მოიხსენია, იყენებს GA100 GPU-ს, რომელიც არის Nvidia-ს Ampere დიაპაზონის დიაპაზონი, რომელიც არასდროს გამოუყენებიათ თამაშზე ორიენტირებულ ბარათებზე (მათ შორის მაღალი კლასის). RTX 3090 Ti). ანალოგიურად, Nvidia-ს უახლესი H100 იყენებს სრულიად განსხვავებულ არქიტექტურას, ვიდრე RTX 40-სერია, რაც იმას ნიშნავს, რომ ის ასევე იყენებს განსხვავებულ ჭურჭელს.

არის გამონაკლისები. Nvidia-ს AD102 GPU, რომელიც არის შიგნით RTX 4090 და RTX 4080, ასევე გამოიყენება Ada Lovelace საწარმოს GPU-ების მცირე დიაპაზონში (L40 და RTX 6000). თუმცა, უმეტეს შემთხვევაში, Nvidia-ს არ შეუძლია უბრალოდ გადაიყენოს სათამაშო GPU დისკი მონაცემთა ცენტრის ბარათისთვის. ისინი ცალკე სამყაროებია.

არსებობს რამდენიმე ფუნდამენტური განსხვავება GPU-ს დეფიციტს შორის, რომელიც ჩვენ დავინახეთ კრიპტო-მაინინგის და ხელოვნური ინტელექტის მოდელების პოპულარობის ზრდის გამო. Heaton-ის თანახმად, GPT-3 მოდელს სჭირდებოდა 1000-ზე მეტი A100 Nvidia GPU მატარებლებისთვის და დაახლოებით რვა გასაშვებად. ამ GPU-ებს ასევე აქვთ წვდომა მაღალი გამტარუნარიანობის NVLink ურთიერთდაკავშირებაზე, ხოლო Nvidia-ს RTX 40-სერიის GPU-ებს არ აქვთ. ის ადარებს მაქსიმუმ 24 GB მეხსიერებას Nvidia-ს სათამაშო ბარათებზე რამდენიმე ასეულ GPU-ზე, როგორიცაა A100 NVLink-ით.

არსებობს სხვა შეშფოთება, როგორიცაა მეხსიერების დისკები, რომლებიც გამოყოფილია პროფესიონალური GPU-ებისთვის სათამაშოზე, მაგრამ დღეები ჩქარობენ თქვენს ადგილობრივ მიკრო ცენტრში ან Best Buy, რათა შანსი იპოვოთ GPU მარაგში წავიდა. ჰიტონმა ლამაზად შეაჯამა ეს პუნქტი: ”დიდი ენობრივი მოდელები, როგორიცაა ChatGPT, სავარაუდოდ საჭიროებს მინიმუმ რვა GPU-ს გასაშვებად. ასეთი შეფასებით ვარაუდობენ მაღალი დონის A100 GPU-ს. ჩემი ვარაუდი არის, რომ ამან შეიძლება გამოიწვიოს უფრო მაღალი დონის GPU-ების დეფიციტი, მაგრამ შეიძლება არ იმოქმედოს გეიმერის კლასის GPU-ებზე, ნაკლები ოპერატიული მეხსიერება.”

რედაქტორების რეკომენდაციები

  • საუკეთესო ავტორები ითხოვენ ანაზღაურებას ხელოვნური ინტელექტის ფირმებისგან მათი ნამუშევრის გამოყენებისთვის
  • Google Bard-ს ახლა შეუძლია ლაპარაკი, მაგრამ შეუძლია თუ არა მას ჩაახშოს ChatGPT?
  • ChatGPT ვებსაიტის ტრაფიკი პირველად დაეცა
  • 81% ფიქრობს, რომ ChatGPT არის უსაფრთხოების რისკი, გამოკითხვის თანახმად
  • Apple-ის ChatGPT კონკურენტმა შეიძლება ავტომატურად დაგიწეროთ კოდი

განაახლეთ თქვენი ცხოვრების წესიDigital Trends ეხმარება მკითხველს თვალყური ადევნონ ტექნოლოგიების სწრაფ სამყაროს ყველა უახლესი სიახლეებით, სახალისო პროდუქტების მიმოხილვებით, გამჭრიახი რედაქციებითა და უნიკალური თვალით.

კატეგორიები

Ბოლო

ლურჯი პროტოკოლი აქვს პოტენციალი იყოს ჩემი კარიბჭე MMO

ლურჯი პროტოკოლი აქვს პოტენციალი იყოს ჩემი კარიბჭე MMO

მე არ ვარ MMO-ების დიდი ფანი. მე ისინი ზედმეტად...

10 დიდი რამ, რაც გამოგრჩათ Samsung Unpacked 2023-დან

10 დიდი რამ, რაც გამოგრჩათ Samsung Unpacked 2023-დან

ენდრიუ მარტონიკი / ციფრული ტენდენციებიეს ამბავი...