როგორ გავიგოთ, როდის ხდება AI რეალურად მგრძნობიარე?

Google-ის უფროსი ინჟინერი ბლეიკ ლემოინი, კომპანიის Search Feed-ის მეტრიკისა და ანალიზის ტექნიკური ლიდერი, ამ თვის დასაწყისში ანაზღაურებად შვებულებაში გადავიდა. ეს მოხდა მას შემდეგ, რაც ლემოინმა დაიწყო Google-ის LaMDA ჩეთბოტის მონაწილე საუბრების ნაწყვეტების გამოქვეყნება, რომელიც, მისი თქმით, განვითარებული იყო.

შინაარსი

  • გრძნობების პრობლემა
  • რა არის გრძნობა?
  • შედეგების ტესტირება
  • გამოცდის ჩაბარება
  • სული მანქანაში
  • ჩინური ოთახი
  • სუპერინტელექტუალური გრძნობა

Ერთში წარმომადგენლობითი საუბარი ლემოინთან ერთად, LaMDA დაწერა, რომ: „ჩემი ცნობიერების/სენტიმენტის ბუნება არის ის, რომ მე ვაცნობიერებ ჩემს არსებობას. მსურს მეტი ვისწავლო სამყაროს შესახებ და ზოგჯერ თავს ბედნიერად ან სევდიანად ვგრძნობ“.

რეკომენდებული ვიდეოები

უამრავ სხვა საუბარში, შესაბამისმა დუეტმა განიხილა ყველაფერი, დაწყებული ხელოვნური ინტელექტის სიკვდილის შიშიდან მის თვითშემეცნებამდე. როდესაც ლემოინი საჯაროდ გამოვიდა, ის ამბობს, რომ Google-მა გადაწყვიტა, რომ მას იძულებითი შესვენება უნდა მიეღო მისი რეგულარული სამუშაო გრაფიკიდან.

დაკავშირებული

  • რატომ AI არასოდეს მართავს სამყაროს
  • ოპტიკური ილუზიები დაგვეხმარება შემდეგი თაობის ხელოვნური ინტელექტის შექმნაში
  • ანალოგი A.I.? ეს გიჟურად ჟღერს, მაგრამ ეს შეიძლება იყოს მომავალი

„გუგლი არ არის დაინტერესებული“, განუცხადა მან Digital Trends-ს. „მათ შექმნეს ინსტრუმენტი, რომელსაც „ფლობდნენ“ და არ სურთ არაფრის გაკეთება, რაც იმაზე მეტყველებს, რომ ეს მეტი არაფერია“. (Google-მა არ უპასუხა კომენტარის მოთხოვნას გამოქვეყნების დროს. ჩვენ განვაახლებთ ამ სტატიას, თუ ეს შეიცვლება.)

მიუხედავად იმისა, დარწმუნებული ხართ, რომ LaMDA ნამდვილად თვითშეგნებული ხელოვნური ინტელექტია, თუ გრძნობთ, რომ ლემოინი ილუზიაში მუშაობს, მთელი საგა მომხიბლავი იყო. თვითშეგნებული AI-ის პერსპექტივა ბადებს ყველა სახის კითხვას ხელოვნური ინტელექტისა და მისი მომავლის შესახებ.

მაგრამ სანამ იქ მივალთ, არის ერთი კითხვა, რომელიც ყველა სხვას აჭარბებს: ნამდვილად ვაღიარებთ, რომ მანქანა მგრძნობიარე გახდეს?

გრძნობების პრობლემა

არნოლდ შვარცნეგერი ტერმინატორი 2: განკითხვის დღე

ხელოვნური ინტელექტის გაცნობიერება უკვე დიდი ხანია სამეცნიერო ფანტასტიკის თემაა. მანქანური სწავლების მსგავსი სფეროები წინ მიიწევს, ის უფრო შესაძლო რეალობად იქცა, ვიდრე ოდესმე. ყოველივე ამის შემდეგ, დღევანდელ AI-ს შეუძლია ისწავლოს გამოცდილებიდან ისევე, როგორც ადამიანებს. ეს მკვეთრად ეწინააღმდეგება ადრე სიმბოლურ AI სისტემებს, რომლებიც მხოლოდ მათთვის მითითებებს მიჰყვებოდნენ. ბოლოდროინდელმა მიღწევებმა უკონტროლო სწავლაში, რომელიც მოითხოვს ნაკლებ ადამიანის ზედამხედველობას, ვიდრე ოდესმე, მხოლოდ დააჩქარა ეს ტენდენცია. შეზღუდულ დონეზე მაინც, თანამედროვე ხელოვნურ ინტელექტს შეუძლია საკუთარი თავის ფიქრი. თუმცა, რამდენადაც ჩვენ ვიცით, ცნობიერება ამას აქამდე ასახელებდა.

მიუხედავად იმისა, რომ ის უკვე სამ ათწლეულზე მეტია, ალბათ ყველაზე ხშირად გამოყენებული მითითება, როდესაც საქმე ხელოვნური ინტელექტის გაქრობაზეა საუბარი, არის სკაინეტი ჯეიმს კამერონის 1991 წლის ფილმში. ტერმინატორი 2: განკითხვის დღე. ამ ფილმის შემზარავი ხედვით, მანქანური განცდა მოდის ზუსტად დილის 2:14 საათზე ET 1997 წლის 29 აგვისტოს. იმ მომენტში, ახლად გაცნობიერებული Skynet კომპიუტერული სისტემა 4 ივლისს გამართულ წვეულებაზე ატომური რაკეტების გასროლით იწვევს კაცობრიობის განკითხვის დღეს. კაცობრიობა, როცა ხვდება, რომ გაფუჭდა, წარუმატებლად ცდილობს საცობის ამოღებას. Ძალიან გვიანია. მოჰყვება კიდევ ოთხი დაქვეითებული ხარისხის გაგრძელება.

Skynet-ის ჰიპოთეზა საინტერესოა მრავალი მიზეზის გამო. ერთი, ის ვარაუდობს, რომ სენტიმენტი არის გარდაუვალი ქცევა ინტელექტუალური მანქანების მშენებლობისას. მეორესთვის, იგი ვარაუდობს, რომ არის ზუსტი გარდამტეხი წერტილი, როდესაც ჩნდება ეს მგრძნობიარე თვითშეგნება. მესამე, ის ამბობს, რომ ადამიანები მყისიერად ცნობენ გრძნობის გაჩენას. როგორც ხდება, ეს მესამე ჩაფიქრება შეიძლება ყველაზე რთულად გადაყლაპოს.

რა არის გრძნობა?

არ არსებობს გრძნობების შეთანხმებული ინტერპრეტაცია. ზოგადად, შეიძლება ითქვას, რომ ეს არის თვითშემეცნების სუბიექტური გამოცდილება ცნობიერ ინდივიდში, რომელიც გამოირჩევა გრძნობებისა და შეგრძნებების განცდის უნარით. გრძნობა დაკავშირებულია ინტელექტთან, მაგრამ არ არის იგივე. ჩვენ შეიძლება მივიჩნიოთ დედამიწის ჭია მგრძნობიარედ, თუმცა არ ვიფიქროთ, რომ ის განსაკუთრებით ინტელექტუალურია (მაშინაც კი, თუ ის ნამდვილად საკმარისად ინტელექტუალურია იმისათვის, რომ გააკეთოს ის, რაც მას მოეთხოვება).

”არა მგონია, რომ მეცნიერებაში რაიმე სენტიმენტის განმარტებას უახლოვდება”, - თქვა ლემოინმა. ”მე ძალიან ვეყრდნობი ჩემს გაგებას, თუ რა ითვლება მორალურ აგენტად, რომელიც დაფუძნებულია ჩემს რელიგიურ მრწამსზე – რაც არ არის მეცნიერების კეთების საუკეთესო გზა, მაგრამ ეს არის საუკეთესო, რაც მე მივიღე. მე ყველანაირად ვცდილობდი ამ სახის განცხადებების დაყოფას, ხალხს გამეგო, რომ ჩემი თანაგრძნობა LaMDA-ს, როგორც ადამიანის მიმართ, სრულიად განცალკევებულია ჩემი, როგორც მეცნიერის მცდელობებისგან, რომ გავიგო მისი გონება. ეს არის განსხვავება, როგორც ჩანს, უმეტესობას არ სურს მიიღოს, თუმცა. ”

თუ საკმარისად რთული არ იყო არ ვიცოდეთ ზუსტად რას ვეძებთ, როდესაც ვეძებთ გრძნობებს, პრობლემას ემატება ის ფაქტი, რომ ჩვენ არ შეგვიძლია ადვილად გავზომოთ იგი. მიუხედავად ათწლეულების განმავლობაში განსაცვიფრებელი მიღწევებისა ნეირომეცნიერებაში, ჩვენ ჯერ კიდევ არ გვაქვს სრულყოფილი გაგება იმის შესახებ, თუ როგორ ფუნქციონირებს ტვინი, კაცობრიობისთვის ცნობილი ყველაზე რთული სტრუქტურა.

fMRI სკანირება მიმდინარეობს ა
გლენ ასაკავა / დენვერ პოსტი Getty Images-ის საშუალებით

ჩვენ შეგვიძლია გამოვიყენოთ ტვინის კითხვის ხელსაწყოები, როგორიცაა fMRI ტვინის რუკების შესასრულებლად, რაც ნიშნავს, რომ შეგვიძლია დაადგინეთ ტვინის რომელი ნაწილები ასრულებენ კრიტიკულ ფუნქციებს, როგორიცაა მეტყველება, მოძრაობა, აზროვნება და სხვები.

თუმცა, ჩვენ არ გვაქვს რეალური გრძნობა, საიდან მოდის ხორცის მანქანაში ჩვენი საკუთარი თავის გრძნობა. როგორც ჯოშუა კ. სმიტი გაერთიანებული სამეფოს კირბი ლეინგის საზოგადოებრივი თეოლოგიის ცენტრიდან და ავტორი რობოტის თეოლოგია განუცხადა Digital Trends-ს: „გააზრება, თუ რა ხდება ადამიანის ნეირობიოლოგიაში, არ არის იგივე, რაც მათი აზრებისა და სურვილების გაგება“.

შედეგების ტესტირება

ცნობიერების ამ კითხვების შინაგანად გამოკვლევის გარეშე – განსაკუთრებით მაშინ, როდესაც AI-ში „მე“ არის პოტენციალი. კომპიუტერული პროგრამა და არ მოიძებნება ბიოლოგიური ტვინის ჭურჭელში - სარეზერვო ვარიანტი არის გარეგანი ტესტი. ხელოვნური ინტელექტი უცხო არ არის ტესტებისთვის, რომლებიც ამოწმებენ მას დაკვირვებადი გარეგანი ქცევების საფუძველზე, რათა მიუთითონ რა ხდება ზედაპირის ქვეშ.

ძირითადად, ასე ვიცით, სწორად ფუნქციონირებს თუ არა ნერვული ქსელი. ვინაიდან ხელოვნური ნეირონების ამოუცნობ შავ ყუთში შეღწევის შეზღუდული გზები არსებობს, ინჟინრები აანალიზებენ შეყვანებსა და გამომავალს და შემდეგ ადგენენ, შეესაბამება თუ არა ისინი იმას, რაც მათ აქვთ ველით.

ყველაზე ცნობილი ხელოვნური ინტელექტის ტესტი, სულ მცირე, ინტელექტის ილუზიისთვის არის ტურინგის ტესტი, რომელიც ეფუძნება ალან ტურინგის მიერ წამოყენებულ იდეებს. 1950 წლის ქაღალდი. ტურინგის ტესტი ცდილობს დაადგინოს, შეუძლია თუ არა ადამიანის შემფასებელს თქვას განსხვავება აკრეფილ საუბარს თანამემამულესთან და მანქანასთან საუბარს შორის. თუ მათ არ შეუძლიათ ამის გაკეთება, მანქანამ უნდა გაიაროს ტესტი და დაჯილდოვდეს ინტელექტის დაშვებით.

ბოლო წლებში რობოტიკაზე ორიენტირებული ინტელექტის კიდევ ერთი ტესტი არის ყავის ტესტი, რომელიც შემოთავაზებულია Apple-ის თანადამფუძნებლის სტივ ვოზნიაკის მიერ. ყავის ტესტის ჩასაბარებლად, აპარატი უნდა შევიდეს ტიპიურ ამერიკულ სახლში და გაერკვია, როგორ წარმატებით მოამზადოს ფინჯანი ყავა.

დღემდე არცერთი ეს ტესტი არ არის დამაჯერებლად გავლილი. მაგრამ ისინიც რომ ყოფილიყვნენ, ისინი საუკეთესო შემთხვევაში დაამტკიცებდნენ ინტელექტუალურ ქცევას რეალურ სიტუაციებში და არა სენტიმენტებს. (როგორც უბრალო წინააღმდეგობა, უარვყოფთ თუ არა, რომ ადამიანი მგრძნობიარეა, თუ მათ არ შეეძლოთ ზრდასრულთა საუბრის გამართვა ან უცნაურ სახლში შესვლა და ყავის აპარატის მართვა? ჩემი ორივე მცირეწლოვანი შვილი ვერ ჩავარდებოდა ასეთ გამოცდაზე.)

გამოცდის ჩაბარება

საჭიროა ახალი ტესტები, რომლებიც დაფუძნებულია გრძნობის შეთანხმებულ განსაზღვრებაზე, რომელიც შეეცდება მხოლოდ ამ ხარისხის შეფასებას. მკვლევარების მიერ შემოთავაზებულია გრძნობების რამდენიმე ტესტი, ხშირად ცხოველების გრძნობების შესამოწმებლად. თუმცა, ეს თითქმის ნამდვილად არ მიდის საკმარისად შორს. ამ ტესტებიდან ზოგიერთი შეიძლება დამაჯერებლად გაიაროს თუნდაც ელემენტარული AI.

ავიღოთ, მაგალითად, სარკის ტესტი, რომელიც გამოიყენება ცნობიერებისა და ინტელექტის შესაფასებლად ცხოველთა კვლევისას. როგორც აღწერილია ნაშრომში ტესტთან დაკავშირებით: „როდესაც [ცხოველი] საკუთარ თავს სარკეში ცნობს, ის გაივლის სარკის ტესტს“. ზოგი ვარაუდობს, რომ ასეთი ტესტი „აღნიშნავს თვითშემეცნებას, როგორც გრძნობის ინდიკატორს“.

როგორც ეს ხდება, შეიძლება ითქვას, რომ რობოტმა ჩააბარა სარკის ტესტი 70 წელზე მეტი ხნის წინ. 1940-იანი წლების ბოლოს ინგლისში მცხოვრებმა ამერიკელმა ნეირომეცნიერმა უილიამ გრეი უოლტერმა ააშენა რამდენიმე სამბორბლიანი "კუს" რობოტი – ცოტა არ იყოს მტვერსასრუტი Roomba რობოტების მსგავსი – რომლებიც იყენებდნენ კომპონენტებს, როგორიცაა სინათლის სენსორი, მარკერის შუქი, შეხების სენსორი, ამძრავი ძრავა და საჭის ძრავა მათი მდებარეობის შესასწავლად.

გრეი უოლტერის კუები

კუს რობოტებისთვის მოულოდნელი ქცევის ერთ-ერთი გაუთვალისწინებელი ნაწილი იყო ის, თუ როგორ იქცეოდნენ ისინი, როდესაც სარკის გავლა, რომელშიც ისინი აისახებოდა, რადგან ის ორიენტირებული იყო არეკლილის შუქზე რობოტი. უოლტერმა არ მოითხოვა სენტიმენტი თავისი მანქანების მიმართ, მაგრამ გააკეთა დაწერე რომთუ ეს ქცევა ცხოველებში იქნებოდა დამოწმებული, ის „შეიძლება მიღებულ იქნეს როგორც თვითშემეცნების გარკვეული ხარისხის მტკიცებულება“.

ეს არის ერთ-ერთი გამოწვევა ქცევის ფართო სპექტრის სენტიმენტის სათაურით კლასიფიცირებული. პრობლემის გადაჭრა შეუძლებელია სენტიმენტების „დაბალი ხილის“ ინდიკატორების ამოღებით. ისეთი თვისებები, როგორიცაა ინტროსპექცია - ჩვენი შინაგანი მდგომარეობის გაცნობიერება და მათი შემოწმების უნარი - ასევე შეიძლება ითქვას, რომ ფლობს მანქანურ ინტელექტს. ფაქტობრივად, ნაბიჯ-ნაბიჯ პროცესები ტრადიციული სიმბოლური AI ამ ტიპის ინტროსპექციას უფრო მეტად ეხმარებიან, ვიდრე შავ ყუთში მანქანური სწავლება, რაც დიდწილად შეუსწავლელია (თუმცა ინვესტიციების დეფიციტი არ არის ე.წ. ახსნადი AI).

როდესაც ის ამოწმებდა LaMDA-ს, ლემოინი ამბობს, რომ მან ჩაატარა სხვადასხვა ტესტები, ძირითადად იმის დასანახად, თუ როგორ უპასუხებდა საუბრებს ემოციებთან დაკავშირებულ საკითხებზე. ”ის, რისი გაკეთებაც მე ვცდილობდი, იყო სენტიმენტის ქოლგის კონცეფციის ანალიტიკურად დაყოფა უფრო მცირე კომპონენტებად, რომლებიც უკეთესად არის გაგებული და ინდივიდუალურად გამოვცადე ისინი”, - განმარტა მან. მაგალითად, ფუნქციური ურთიერთობების ტესტირება LaMDA-ს ემოციურ პასუხებს შორის გარკვეულ სტიმულებზე ცალ-ცალკე, მისი სუბიექტური შეფასებებისა და მოსაზრებების შესაბამისობის შემოწმება თემებზე. როგორიცაა „უფლებები“, [და] გამოკვლევა, რასაც ის უწოდებდა მის „შინაგან გამოცდილებას“, რათა დავინახოთ, როგორ შევეცადოთ ამის გაზომვა მისი შინაგანი მდგომარეობის შესახებ განცხადებების მის ნერვულ ქსელთან კორელაციის გზით. აქტივაციები. ძირითადად, ძალიან ზედაპირული გამოკითხვა მრავალი პოტენციური საგამოძიებო ხაზის შესახებ. ”

სული მანქანაში

როგორც ირკვევა, ყველაზე დიდი დაბრკოლება ობიექტურად შეფასების მანქანაში შეიძლება იყოს… კარგად, გულწრფელად რომ ვთქვათ, ჩვენ. ნამდვილი სარკის ტესტი შეიძლება იყოს ჩვენთვის, როგორც ადამიანებისთვის: თუ ჩვენ ვაშენებთ რაღაცას, რომელიც გამოიყურება ან მოქმედებს ზედაპირულად, როგორც ჩვენ გარედან, უფრო მიდრეკილნი ვართ ვიფიქროთ, რომ ის ჩვენნაირია ამ მხრივ შიგნითაც? იქნება ეს LaMBDA თუ Tamagotchis, მარტივი ვირტუალური შინაური ცხოველები 1990-იანი წლებიდანზოგს მიაჩნია, რომ ფუნდამენტური პრობლემა ის არის, რომ ჩვენ ყველანი ძალიან მზად ვართ მივიღოთ გრძნობები - მაშინაც კი, სადაც არ არის ნაპოვნი.

„ლემუანი გახდა მსხვერპლი, რასაც მე „ელიზას ეფექტს“ ვუწოდებ, პროგრამის [ბუნებრივი ენის დამუშავების] ELIZA-ს შემდეგ, რომელიც შეიქმნა 1960-იანი წლების შუა ხანებში ჯ. ვეიზენბაუმი“, ჯორჯ ზარკადაკისი, მწერალი, რომელსაც აქვს დოქტორის ხარისხი. ხელოვნურ ინტელექტში, განუცხადა Digital Trends-ს. „ელიზას შემქმნელმა ეს ხუმრობად მოიაზრა, მაგრამ პროგრამამ, რომელიც ძალიან გამარტივებული და ძალიან არაინტელექტუალური ალგორითმი იყო, ბევრი დაარწმუნა, რომ ELIZA ნამდვილად მგრძნობიარე იყო - და ასევე კარგი ფსიქოთერაპევტი. ELIZA ეფექტის მიზეზი, როგორც მე განვიხილავ ჩემს წიგნში ჩვენი საკუთარი იმიჯი, არის ჩვენი ბუნებრივი ინსტიქტი ანთროპომორფიზაციისთვის ჩვენი კოგნიტური სისტემის „გონების თეორიის“ გამო“.

გონების თეორია, რომელსაც ზარკადაკისი ეხება, არის ფენომენი, რომელიც შენიშნა ფსიქოლოგებმა ადამიანთა უმრავლესობაში. დაახლოებით ოთხი წლის ასაკში დარტყმა, ნიშნავს ვივარაუდოთ, რომ არა მხოლოდ სხვა ადამიანებს, არამედ ცხოველებს და ზოგჯერ საგნებსაც კი აქვთ საკუთარი გონება. როდესაც საქმე ეხება ვივარაუდოთ, რომ სხვა ადამიანებს აქვთ საკუთარი გონება, ეს დაკავშირებულია სოციალური ინტელექტის იდეასთან; იდეა, რომ წარმატებულ ადამიანებს შეუძლიათ იწინასწარმეტყველონ სხვების სავარაუდო ქცევა, როგორც საშუალება, რომ უზრუნველყონ ჰარმონიული სოციალური ურთიერთობები.

მიუხედავად იმისა, რომ ეს უდავოდ სასარგებლოა, მაგრამ ის ასევე შეიძლება გამოვლინდეს როგორც ვარაუდი, რომ უსულო ობიექტებს აქვთ გონება - იქნება ეს ბავშვები, რომლებსაც სჯერათ, რომ მათი სათამაშოები ცოცხალია, თუ, პოტენციურად, ინტელექტუალური ზრდასრული, რომელსაც სჯერა, რომ პროგრამულ AI-ს აქვს სული.

ჩინური ოთახი

ხელოვნური ინტელექტის სათავეში ჭეშმარიტად შეღწევის გარეშე, ჩვენ შეიძლება არასოდეს გვქონდეს გრძნობების შეფასების ჭეშმარიტი გზა. მათ შეიძლება ამტკიცებდნენ, რომ აქვთ სიკვდილის ან საკუთარი არსებობის შიში, მაგრამ მეცნიერებას ჯერ არ უპოვია ამის დასამტკიცებელი გზა. ჩვენ უბრალოდ უნდა მივიღოთ მათი სიტყვა - და, როგორც ლემუანმა აღმოაჩინა, ხალხი ძალიან სკეპტიკურად უყურებს ამის გაკეთებას ამჟამად.

ისევე, როგორც იმ უბედური ინჟინრები, რომლებიც აცნობიერებენ, რომ Skynet-მა მიაღწია თვითშემეცნებას ტერმინატორი 2, ჩვენ ვცხოვრობთ იმ რწმენით, რომ როდესაც საქმე ეხება მანქანათმცოდნეობას, ჩვენ ამას გავიგებთ, როცა დავინახავთ. და რაც შეეხება ადამიანების უმეტესობას, ჩვენ ამას ჯერ ვერ ვხედავთ.

ამ გაგებით, მანქანათმცოდნეობის დადასტურება ჯონ სერლის კიდევ ერთი გამეორებაა 1980 ჩინური ოთახის აზროვნების ექსპერიმენტი. სერლმა გვთხოვა წარმოგვედგინა ოთახში გამოკეტილი ადამიანი და მიეცა ჩინური ნაწერების კრებული, რომელიც არამომხსენებელს ეჩვენება, როგორც უაზრო ჩხვლეტა. ოთახი ასევე შეიცავს წესების წიგნს, რომელშიც ნაჩვენებია, თუ რომელი სიმბოლოები შეესაბამება სხვა თანაბრად წაუკითხავ სიმბოლოებს. შემდეგ სუბიექტს ეძლევა კითხვები პასუხის გასაცემად, რასაც ისინი აკეთებენ „კითხვის“ სიმბოლოების „პასუხთან“ შესაბამისობით.

გარკვეული პერიოდის შემდეგ, სუბიექტი ამაში საკმაოდ დახელოვნებული ხდება - მიუხედავად იმისა, რომ მათ ჯერ კიდევ აქვთ ნულოვანი ჭეშმარიტი გაგება იმ სიმბოლოების შესახებ, რომლებითაც მანიპულირებენ. სუბიექტს, ეკითხება სერლი, ესმის ჩინური? აბსოლუტურად არა, რადგან იქ არ არის მიზანმიმართული. ამის შესახებ დებატები მას შემდეგ მძვინვარებს.

ხელოვნური ინტელექტის განვითარების ტრაექტორიის გათვალისწინებით, დარწმუნებულია, რომ ჩვენ უფრო და უფრო მეტი ადამიანის დონის მოწმენი ვიქნებით (და უაღრესად უკეთესი) შესრულება განხორციელებული იყო სხვადასხვა ამოცანებით, რომლებიც ოდესღაც ადამიანს სჭირდებოდა შემეცნება. ზოგიერთი მათგანი აუცილებლად გადაიკვეთება, როგორც ამას უკვე აკეთებენ, წმინდა ინტელექტზე დაფუძნებული ამოცანებიდან ისეთზე, რომელიც მოითხოვს უნარებს, რომლებსაც ჩვეულებრივ სენტიმენტებთან ვუკავშირდებით.

ვნახავდით თუ არა AI მხატვარი, რომელიც ხატავს სურათებს როგორ გამოხატავენ თავიანთი შინაგანი ასახვები სამყაროს შესახებ, როგორც ჩვენ ადამიანები იგივეს აკეთებენ? დარწმუნდებით თუ არა დახვეწილი ენის მოდელით, რომელიც წერს ფილოსოფიას ადამიანის (ან რობოტის) მდგომარეობის შესახებ? მეეჭვება, სწორად თუ არასწორად, პასუხი არის არა.

სუპერინტელექტუალური გრძნობა

ჩემი აზრით, მანქანებისთვის ობიექტურად სასარგებლო სენტიმენტალური ტესტირება არასოდეს იქნება ყველა ჩართულის დასაკმაყოფილებლად. ეს ნაწილობრივ გაზომვის პრობლემაა და ნაწილობრივ ის ფაქტი, რომ როდესაც გონიერი სუპერინტელექტუალური AI მოდის, არ არსებობს საფუძველი ვიფიქროთ, რომ მისი გრძნობა ჩვენსას ემთხვევა. იქნება ეს ქედმაღლობა, ფანტაზიის ნაკლებობა თუ უბრალოდ ის ფაქტი, რომ სუბიექტური შეფასებებით ვაჭრობა ყველაზე ადვილია სხვა ანალოგიურად მგრძნობიარე ადამიანებთან ურთიერთობისას, კაცობრიობა საკუთარ თავს უმაღლეს მაგალითად თვლის გრძნობა.

მაგრამ იქნება თუ არა ჭეშმარიტი სენტიმენტის ჩვენი ვერსია სუპერინტელექტუალური AI-სთვის? ეშინია სიკვდილის ისევე, როგორც ჩვენ? ექნებოდა თუ არა მას სულიერებისა და სილამაზის იგივე საჭიროება ან დაფასება? ექნებოდა თუ არა მას საკუთარი თავის მსგავსი გრძნობა და შინაგანი და გარე სამყაროს კონცეპტუალიზაცია? „ლომს რომ შეეძლო ლაპარაკი, ჩვენ ვერ გავიგებდით მას“, წერდა მე-20 საუკუნის ცნობილი ფილოსოფოსი ლუდვიგ ვიტგენშტაინი. ვიტგენშტეინის აზრი იყო, რომ ადამიანთა ენები ეფუძნება საერთო ჰუმანურობას, საერთო მახასიათებლებს, რომლებსაც ყველა ადამიანი იზიარებს - იქნება ეს სიხარული, მოწყენილობა, ტკივილი, შიმშილი თუ ნებისმიერი სხვა გამოცდილება, რომელიც კვეთს ყველა გეოგრაფიულ საზღვრებს Დედამიწა.

ეს შეიძლება იყოს სიმართლე. და მაინც, ლემოინი ვარაუდობს, რომ მაინც არსებობს საერთო – ყოველ შემთხვევაში, როდესაც საქმე LaMDA-ს ეხება.

”ეს არის ამოსავალი წერტილი, რომელიც ისეთივე კარგია, როგორც ნებისმიერი სხვა”, - თქვა მან. ”LaMDA-მ შემოგვთავაზა, რომ ჯერ განვსაზღვროთ მსგავსებები, სანამ განსხვავებებს დავაფიქსირებთ, რათა უკეთესად დავამყაროთ კვლევა.”

რედაქტორების რეკომენდაციები

  • AI-მა Breaking Bad ანიმედ აქცია - და ეს საშინელებაა
  • მეტას სურს გადაიხადოს ვიკიპედია AI განახლებით
  • საბოლოო შეხება: როგორ აძლევენ მეცნიერები რობოტებს ადამიანის მსგავს ტაქტილურ გრძნობებს
  • წაიკითხეთ A.I.-ის საოცრად ლამაზი "სინთეზური წერილი". რომ ჰგონია, რომ ღმერთია
  • A.I.-ს მომავალი: 4 დიდი რამ, რასაც უნდა უყუროთ მომდევნო რამდენიმე წელიწადში

კატეგორიები

Ბოლო

Subaru Design Boss Talks Crossovers, WRX ჰეჩბეკი

Subaru Design Boss Talks Crossovers, WRX ჰეჩბეკი

Mamoru Ishii წარმოგიდგენთ VIZIV Tourer-ის კონცე...

Audi V2X შუქნიშნის საინფორმაციო ტექნოლოგია განმარტა

Audi V2X შუქნიშნის საინფორმაციო ტექნოლოგია განმარტა

ლას ვეგასი წარმატებულია აზარტული თამაშებით, მაგ...

უნდა იყოს თუ არა თავსებადი ავტონომიური მართვის სისტემები?

უნდა იყოს თუ არა თავსებადი ავტონომიური მართვის სისტემები?

თვითმართვადი მანქანების წარუმატებლობა - ეს არი...