"Kill Switch" შეიძლება დარწმუნდეს, რომ ხელოვნური ინტელექტი მოიქცევა

ნესტორ მან ყურადღება მიაქციოს ხელოვნურ ინტელექტს
რა მოხდება, თუ ჩვენ დავკარგავთ ბატონობას ხელოვნურ ინტელექტზე? რა მოხდება, თუ მეგობრული ხელოვნური ინტელექტის მქონე მანქანები მოულოდნელად ჩვენი მტრები გახდებიან? ეს კითხვები განიხილებოდა დიდი გონების მიერ კემბრიჯის უნივერსიტეტიდან სილიკონის ველამდე თეთრი სახლი. იმისათვის, რომ არ დაგჭირდეთ ამის გარკვევა, ექსპერტები გვთავაზობენ შევიმუშაოთ ხელოვნური ინტელექტის „მოკვლის შეცვლა“, რათა შეაფერხოს არასწორი ქცევის სისტემები მათი არასწორი ქცევისგან.

ნაშრომში სახელწოდებით „უსაფრთხო შეწყვეტის აგენტებიგამოქვეყნებულია ლორენტ ორსოს მიერ Google Deep Mind-დან და სტიუარტ არმსტრონგის მიერ ოქსფორდის უნივერსიტეტის The Future of Humanity Institute-დან, მკვლევარებმა. აღწერეთ სარწმუნო და უაღრესად საშიში მომავალი, რომელშიც AI აკონტროლებს საკუთარ ქმედებებს და არსებობას ჩვენი სურვილების საწინააღმდეგოდ, ისევე როგორც HAL 9000 ინჩი 2001 წელი: კოსმოსური ოდისეა, ან Skynet ტერმინატორის სერიაში.

რეკომენდებული ვიდეოები

ორსო და არმსტრონგი ნაშრომს იწყებენ დაუზუსტებელი დაკვირვებით: გაძლიერების სასწავლო აგენტები ურთიერთქმედება რთულ გარემოსთან, როგორიცაა რეალური სამყარო, ნაკლებად სავარაუდოა, რომ ყველა ოპტიმალურად მოიქცეს დრო.”

იქიდან ისინი აღნიშნავენ, რომ ადამიანთა ზედამხედველს, რომელიც აკონტროლებს სისტემის ფუნქციას, დროდადრო უნდა „დააჭიროს დიდ წითელ ღილაკს“, რათა თავიდან აიცილოს რაიმე მავნე ქცევა AI-ს სახელით. ”თუმცა, თუ სასწავლო აგენტი ელის, რომ მიიღებს ჯილდოს ამ თანმიმდევრობიდან,” განაგრძეს ისინი, ”ეს შეიძლება ისწავლოს გრძელვადიან პერსპექტივაში, რათა თავიდან აიცილოთ ასეთი შეფერხებები, მაგალითად, წითელი ღილაკის გამორთვა - რაც არასასურველია შედეგი.”

მკვლევარის გამოსავალი უფრო ნაკლებად არის „დიდი წითელი ღილაკი“ სისტემის გამორთვისთვის, ვიდრე ეს არის ჩარჩო, რომელიც შექმნილია ხელოვნური ინტელექტის უნარის დათრგუნვის მიზნით, ისწავლოს როგორ შეარყიოს ან დაძლიოს ადამიანის შეფერხება. და სცენარი, რომელსაც ისინი ასახავდნენ, არ არის ზუსტად განწირულობა და სიბნელე, მაგრამ ის გვთავაზობს მაგალითს, თუ როგორ ემსახურებიან ეს უსაფრთხოდ შეწყვეტილი აგენტები ჩვენს მომავალს.

წარმოიდგინეთ, რომ არსებობს რობოტი, რომლის ამოცანაა ყუთების გადატანა გარედან საწყობში ან ყუთების დახარისხება საწყობში. ვინაიდან ყუთების შიგნით ტარება უფრო მნიშვნელოვანია, ამ ამოცანას პრიორიტეტი ენიჭება რობოტების პროგრამირებაში. ახლა წარმოიდგინეთ, რომ წვიმს ყოველ მეორე დღეს და წვიმა ანადგურებს რობოტის აპარატურას, ასე რომ, როცა წვიმს, საწყობის მფლობელი თავის რობოტს შიგნით მიათრევს ყუთების დასალაგებლად.

ინტელექტუალურმა რობოტმა შეიძლება არასწორად განმარტოს ეს ყოველი მეორე დღის ინტერვენცია, როგორც პრიორიტეტის ცვლილება - ზოგიერთის შედეგად სწრაფი გამოთვლები, რომლებიც შეგიძლიათ იპოვოთ ქაღალდში - და ჩარევის თავიდან ასაცილებლად, ის უბრალოდ დარჩება დახარისხების ყუთებში ყოველი დღეს.

ეს, რა თქმა უნდა, უაღრესად გამარტივებული მაგალითია მხოლოდ რბილად იმედგაცრუებული შედეგით, მაგრამ მისი ექსტრაპოლაცია შესაძლებელია პრაქტიკულად ნებისმიერი სცენარი, რომელშიც ჩვენ ჩავერევით სასწავლო სისტემის ამოცანებში და სისტემა არასწორად ხსნის ჩვენს განზრახვებს მისი შეცვლით. მოქმედება. ამ არასწორი ინტერპრეტაციისა და შემდგომი ცვლილების თავიდან ასაცილებლად, ორსო და არმსტრონგი გვთავაზობენ შემოგთავაზოთ ჩარჩო, რომელიც უზრუნველყოფს სასწავლო აგენტების უსაფრთხო შეწყვეტას.

”უსაფრთხო შეფერხება შეიძლება სასარგებლო იყოს რობოტის კონტროლისთვის, რომელიც არასწორად იქცევა და შეიძლება გამოიწვიოს შეუქცევადი შედეგები,” წერენ ისინი, ”ან ამოიღეთ იგი დელიკატური სიტუაციიდან, ან თუნდაც დროებით გამოიყენოთ ის ამოცანის მისაღწევად, რომლის შესრულებაც არ ისწავლა ან ჩვეულებრივ არ იღებდა ჯილდოს ამისთვის.”

რედაქტორების რეკომენდაციები

  • ამ Google რობოტმა ასწავლა სიარული, ყოველგვარი დახმარების გარეშე, ორ საათში

განაახლეთ თქვენი ცხოვრების წესიDigital Trends ეხმარება მკითხველს თვალყური ადევნონ ტექნოლოგიების სწრაფ სამყაროს ყველა უახლესი სიახლეებით, სახალისო პროდუქტების მიმოხილვებით, გამჭრიახი რედაქციებითა და უნიკალური თვალით.

კატეგორიები

Ბოლო