GPT-3: OpenAI-ის ახალი ტექსტის გენერირების ნერვული ქსელი აქ არის

როდესაც ტექსტის გენერირების ალგორითმი GPT-2 შეიქმნა 2019 წელს, იგი დასახელდა, როგორც ერთ-ერთი ყველაზე ”საშიში” A.I. ალგორითმები ისტორიაში. ფაქტობრივად, ზოგი ამტკიცებდა, რომ ის იმდენად საშიში იყო, რომ არასოდეს უნდა გამოქვეყნებულიყო საზოგადოებისთვის (სპოილერი: ეს იყო), რათა არ შემოიფარგლოს "რობოტის აპოკალიფსი.” ეს, რა თქმა უნდა, არასდროს მომხდარა. GPT-2 საბოლოოდ გამოვიდა საზოგადოებისთვის და მას შემდეგ, რაც მან არ გაანადგურა სამყარო, მისი შემქმნელები გადავიდნენ შემდეგ საკითხზე. მაგრამ როგორ აკონტროლოთ ყველაზე საშიში ალგორითმი, რომელიც ოდესმე შექმნილა?

შინაარსი

  • ფირის ზღაპარი
  • Ზომა მნიშვნელოვანია
  • ტურინგის ტესტის ჩაბარება?

პასუხი, ყოველ შემთხვევაში, ქაღალდზე მარტივია: ისევე, როგორც ნებისმიერი წარმატებული ფილმის გაგრძელება, თქვენ აკეთებთ რაღაც უფრო დიდს, ცუდს და უფრო ძვირს. პირველში მხოლოდ ერთი ქსენომორფი უცხოპლანეტელი? ჩართეთ მათი მთელი ბუდე გაგრძელებაში, უცხოპლანეტელები. მხოლოდ ერთი თითქმის ურღვევი მანქანა გამოგზავნილი მომავლიდან ტერმინატორი? მიეცით აუდიტორიას ორი მათგანი, რომ შეებრძოლოს მათ ტერმინატორი 2: განკითხვის დღე.

OpenAI

იგივე ეხება A.I. - ამ შემთხვევაში, GPT-3, ახლახან გამოშვებული ბუნებრივი ენის დამუშავების ნერვული ქსელი, რომელიც შეიქმნა OpenAI-ის მიერ, ხელოვნური ინტელექტის კვლევის ლაბორატორია, რომელიც ოდესღაც (მაგრამ აღარ) დაფინანსებულია SpaceX-ისა და Tesla-ს აღმასრულებელი დირექტორის, ელონ მასკის მიერ.

რეკომენდებული ვიდეოები

GPT-3 არის უახლესი ტექსტის წარმომქმნელი ნერვული ქსელების სერიიდან. სახელი GPT ნიშნავს Generative Pretrained Transformer-ს, რომელიც მიუთითებს 2017 წელს Google-ის ინოვაცია სახელწოდებით Transformer რომელსაც შეუძლია გაარკვიოს იმის ალბათობა, რომ კონკრეტული სიტყვა გამოჩნდეს მიმდებარე სიტყვებთან ერთად. იკვებება რამდენიმე წინადადებით, როგორიცაა ახალი ამბების დასაწყისი, GPT წინასწარ მომზადებული ენის მოდელი შეუძლია დამაჯერებლად ზუსტი გაგრძელების გენერირება, თუნდაც შეთითხნილი ფორმულირების ჩათვლით ციტატები.

ამიტომაც ზოგიერთი წუხდა, რომ ეს შეიძლება დაამტკიცოს, რომ სახიფათოა, ცრუ ტექსტის გენერირებით, როგორიცაა ღრმაფეიქსი, შეეძლო დაეხმარეთ ყალბი ამბების ონლაინ გავრცელებას. ახლა, GPT-3-ით ის უფრო დიდი და ჭკვიანია, ვიდრე ოდესმე.

ფირის ზღაპარი

GPT-3, როგორც კრივის სტილის „ზღაპარი“ ცხადყოფს, კონკურენტის ნამდვილი მძიმე წონაა. OpenAI-ის თავდაპირველ 2018 GPT-ს ჰქონდა 110 მილიონი პარამეტრი, რაც გულისხმობდა კავშირების წონას, რომელიც საშუალებას აძლევს ნერვულ ქსელს ისწავლოს. 2019 წლის GPT-2, რომელმაც გამოიწვია წინა აჟიოტაჟი მისი პოტენციური მავნე აპლიკაციების შესახებ, გააჩნდა 1,5 მილიარდ პარამეტრს. Გასული თვემაიკროსოფტმა წარმოადგინა მსოფლიოში ყველაზე დიდი მსგავსი წინასწარ მომზადებული ენობრივი მოდელი, 17 მილიარდი პარამეტრით. 2020 წლის ამაზრზენი GPT-3, შედარებისთვის, გასაოცარია 175 მილიარდი პარამეტრები. გავრცელებული ინფორმაციით, ტრენინგი დაახლოებით 12 მილიონი დოლარი დაჯდა.

„ამ მოდელების ძალა იმაში მდგომარეობს, რომ შემდეგი სიტყვის წარმატებით პროგნოზირების მიზნით ისინი სწავლობენ მართლაც ძლიერ სამყაროს მოდელები, რომლებიც შეიძლება გამოყენებულ იქნას ყველა სახის საინტერესო ნივთისთვის“, - ნიკ უოლტონი, სტუდიის Latitude-ის ტექნოლოგიის მთავარი ოფიცერი. უკან ა.ი. Dungeonციფრულ ტენდენციებს განუცხადა A.I.-ს მიერ გენერირებული ტექსტური სათავგადასავლო თამაში GPT-2-ით. „ასევე შეგიძლიათ დაარეგულიროთ საბაზისო მოდელები, რათა ჩამოაყალიბოთ თაობა კონკრეტული მიმართულებით, იმავდროულად, შეინარჩუნოთ ცოდნა, რომელიც მოდელმა მიიღო ტრენინგამდე“.

რეალურ სამყაროში GPT-3-ის რეალურად გამოსაყენებლად საჭირო გამოთვლითი რესურსები მას უკიდურესად არაპრაქტიკულს ხდის.

გვერნ ბრანვენიკომენტატორმა და მკვლევარმა, რომელიც წერს ფსიქოლოგიის, სტატისტიკისა და ტექნოლოგიების შესახებ, განუცხადა Digital Trends-ს, რომ წინასწარ გაწვრთნილი ენობრივი მოდელი, რომელსაც GPT წარმოადგენს, გახდა „უფრო მეტად მნიშვნელოვანი ნაწილი მანქანური სწავლების ნებისმიერი ამოცანის შეხებისას. ტექსტზე. ისევე, როგორც [სტანდარტული შეთავაზება] სურათთან დაკავშირებული მრავალი ამოცანისთვის გახდა „გამოიყენე ა [კონვოლუციური ნერვული ქსელი], ენასთან დაკავშირებული მრავალი დავალება გახდა "გამოიყენე დახვეწილი [ენა" მოდელი."

OpenAI - რომელმაც უარი თქვა კომენტარის გაკეთებაზე ამ სტატიისთვის - არ არის ერთადერთი კომპანია, რომელიც აკეთებს შთამბეჭდავ მუშაობას ბუნებრივი ენის დამუშავებით. როგორც აღვნიშნეთ, მაიკროსოფტი თავისი კაშკაშა ნამუშევრებით გადადგა. ფეისბუქი, იმავდროულად, დიდ ინვესტიციას ახორციელებს ტექნოლოგიაში და შექმნა ისეთი გარღვევები, როგორიცაა ბლენდერბოტი, ყველაზე დიდი ღია კოდის მქონე, ღია დომენის ჩატბოტი. ის აჯობებს სხვებს ჩართულობის თვალსაზრისით და ასევე თავს უფრო ადამიანურად გრძნობს, ადამიანური შემფასებლების აზრით. როგორც ყველამ, ვინც გამოიყენა კომპიუტერი ბოლო რამდენიმე წლის განმავლობაში, იცის, მანქანები უკეთესად ესმით ჩვენს, ვიდრე ოდესმე - და ამის მიზეზი ბუნებრივი ენის დამუშავებაა.

Ზომა მნიშვნელოვანია

მაგრამ OpenAI-ს GPT-3 ჯერ კიდევ მარტო დგას თავისი რეკორდული მასშტაბით. „GPT-3 წარმოქმნის ხმაურს, უპირველეს ყოვლისა, მისი ზომის გამო“, ჯო დევისონი, მკვლევარი ინჟინერი. ჩახუტებული სახეDigital Trends-ს განუცხადა სტარტაპმა, რომელიც მუშაობს ბუნებრივი ენის დამუშავების წინსვლაზე, ღია წყაროს ინსტრუმენტების შემუშავებით და ფუნდამენტური კვლევის ჩატარებით.

დიდი კითხვაა, რისთვის იქნება ეს ყველაფერი გამოყენებული. GPT-2 იპოვა გზა უამრავ გამოყენებაში, გამოიყენებოდა ტექსტის გენერირების სხვადასხვა სისტემებში.

დევისონმა გამოთქვა გარკვეული სიფრთხილე, რომ GPT-3 შეიძლება შეიზღუდოს მისი ზომით. „OpenAI-ის გუნდმა უდავოდ გადალახა ზღვარი, თუ რამდენად დიდი შეიძლება იყოს ეს მოდელები და აჩვენა, რომ მათი ზრდა ამცირებს ჩვენს დამოკიდებულებას ამოცანების სპეციფიკურ მონაცემებზე“, - თქვა მან. ”თუმცა, გამოთვლითი რესურსები, რომლებიც საჭიროა რეალურ სამყაროში GPT-3-ის გამოსაყენებლად, მას უკიდურესად არაპრაქტიკულს ხდის. ასე რომ, მიუხედავად იმისა, რომ ნამუშევარი, რა თქმა უნდა, საინტერესო და გამჭრიახია, მე მას არ დავარქმევ მთავარ წინგადადგმულ ნაბიჯს ამ სფეროსთვის. ”

GPT-2 AI ტექსტის გენერატორი
OpenAI

თუმცა სხვები არ ეთანხმებიან. „[internal-link post_id="NN"]ხელოვნური ინტელექტის[/internal-link] საზოგადოება დიდი ხანია აკვირდება, რომ უფრო დიდი მოდელების გაერთიანება უფრო და უფრო მეტ მონაცემებთან იძლევა თითქმის პროგნოზირებად გაუმჯობესებას ამ მოდელების სიმძლავრეში, ძალიან ჰგავს მურის კანონს გამოთვლითი სიმძლავრის მასშტაბის შესახებ“, - იანიკ კილჩერი, A.I. მკვლევარი ჯანმო მართავს YouTube არხსგანუცხადა Digital Trends-ს. „თუმცა, ისევე როგორც მურის კანონის მსგავსად, ბევრმა ივარაუდა, რომ ჩვენ უკვე შეგვიძლია გავაუმჯობესოთ ენობრივი მოდელები მხოლოდ მათი სკალირების გზით. და იმისათვის, რომ მივიღოთ უფრო მაღალი შესრულება, ჩვენ დაგვჭირდება მნიშვნელოვანი გამოგონებების გაკეთება ახალი არქიტექტურის ან ტრენინგის თვალსაზრისით მეთოდები. GPT-3 გვიჩვენებს, რომ ეს არ არის მართალი და შესრულების უნარი უბრალოდ მასშტაბის გაზრდის უნარი, როგორც ჩანს, შეუწყვეტელია – და დასასრული ნამდვილად არ ჩანს.”

ტურინგის ტესტის ჩაბარება?

Branwen ვარაუდობს, რომ ინსტრუმენტები, როგორიცაა GPT-3, შეიძლება იყოს მთავარი დამრღვევი ძალა. „მასზე ფიქრის ერთ-ერთი გზა ისაა, რომ რა სამუშაოები მოიცავს ტექსტის ნაწილის აღებას, მის ტრანსფორმაციას და ტექსტის სხვა ნაწილის გამოცემას? - თქვა ბრანვენმა. ”ნებისმიერი სამუშაო, რომელიც აღწერილია ამით - როგორიცაა სამედიცინო კოდირება, ბილინგი, მიმღებები, მომხმარებელთა მხარდაჭერა, [და სხვა] კარგი სამიზნე იქნება GPT-3-ის სრულყოფილად ჩართვაზე და ამ ადამიანის ჩანაცვლებისთვის. ბევრი სამუშაო არის მეტ-ნაკლებად „ველის კოპირება ერთი ცხრილიდან ან PDF-დან მეორე ცხრილში ან PDF-ზე“, და ასეთი სახის ოფისის ავტომატიზაცია, რომელიც ძალიან ქაოტურია. ადვილად დაწერე ნორმალური პროგრამა, რომელიც ჩაანაცვლებს, დაუცველი იქნება GPT-3-ის მიმართ, რადგან მას შეუძლია ისწავლოს ყველა გამონაკლისი და სხვადასხვა კონვენცია და იმუშაოს ისევე, როგორც ადამიანის იქნებოდა“.

საბოლოო ჯამში, ბუნებრივი ენის დამუშავება შეიძლება იყოს A.I.-ს მხოლოდ ერთი ნაწილი, მაგრამ ის, სავარაუდოდ, წყვეტს ხელოვნური ინტელექტის ოცნების ბირთვს ისე, როგორც ამას ამ სფეროში რამდენიმე სხვა დისციპლინა აკეთებს. The ცნობილი ტურინგის ტესტი, ერთ-ერთი მთავარი დებატები, რომელმაც დაიწყო სფერო, არის ბუნებრივი ენის დამუშავების პრობლემა: შეგიძლიათ შექმნათ A.I. რომელსაც შეუძლია დამაჯერებლად გადმოსცეს თავი ადამიანად? OpenAI-ის უახლესი ნამუშევარი, რა თქმა უნდა, წინ უძღვის ამ მიზანს. ახლა რჩება იმის გარკვევა, თუ რა აპლიკაციებს იპოვიან მკვლევარები მისთვის.

„ვფიქრობ, ეს არის ის ფაქტი, რომ GPT-2 ტექსტი შეიძლება ისე ადვილად გადავიდეს ადამიანისთვის, რომ ძნელია მისი ხელით გადატანა, როგორც „მხოლოდ ნიმუშის ამოცნობა“ ან „უბრალოდ დამახსოვრება“, - თქვა ბრანვენმა. „ყველას, ვინც დარწმუნებული იყო, რომ ღრმა სწავლების საქმეები არ ჰგავს ინტელექტს, რწმენა უნდა შეირყევა, რათა დაენახა, რამდენად შორს მივიდა იგი.

რედაქტორების რეკომენდაციები

  • საუკეთესო ავტორები ითხოვენ ანაზღაურებას ხელოვნური ინტელექტის ფირმებისგან მათი ნამუშევრის გამოყენებისთვის
  • ChatGPT-ის შემქმნელი OpenAI-ის წინაშე დგას FTC გამოძიება მომხმარებელთა დაცვის კანონების გამო
  • OpenAI აშენებს ახალ გუნდს, რათა შეაჩეროს სუპერინტელექტუალური ხელოვნური ინტელექტის მოტყუება
  • ChatGPT შემქმნელი ცდილობს ჩეტბოტის „ჰალუცინაციების“ აღმოფხვრას
  • OpenAI-ის ახალი ChatGPT აპი უფასოა iPhone-ისა და iPad-ისთვის

კატეგორიები

Ბოლო

ალექსამ შიშველი დამინახა და არა უშავს

ალექსამ შიშველი დამინახა და არა უშავს

ალექსამ რამ ნახა.შინაარსიჭკვიანი ტექნოლოგია თავ...

Tesla Cybertruck საუკეთესოა F-150, მაგრამ სურთ თუ არა სატვირთო მყიდველებს Cyberpunk?

Tesla Cybertruck საუკეთესოა F-150, მაგრამ სურთ თუ არა სატვირთო მყიდველებს Cyberpunk?

ტესლას იმედი არ გაუცრუებია.შინაარსიდაიჭირე ჩემი...