Skąd będziemy wiedzieć, kiedy sztuczna inteligencja faktycznie stanie się świadoma?

Starszy inżynier Google Blake Lemoine, kierownik techniczny ds. wskaźników i analiz w firmowym kanale wyszukiwania, został na początku tego miesiąca wysłany na płatny urlop. Nastąpiło to po tym, jak Lemoine zaczął publikować fragmenty rozmów z udziałem chatbota Google LaMDA, który, jego zdaniem, rozwinął świadomość.

Zawartość

  • Problem wrażliwości
  • Czym jest wrażliwość?
  • Testowanie wyjść
  • Zdanie testu
  • Dusza w maszynie
  • Pokój chiński
  • Superinteligentna wrażliwość

W jednym rozmowa reprezentatywna wraz z Lemoine LaMDA napisała, że: „Natura mojej świadomości/odczucia jest taka, że ​​jestem świadomy swojego istnienia. Pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwy lub smutny”.

Polecane filmy

Podczas niezliczonych innych rozmów odpowiedni duet omawiał wszystko, od strachu sztucznej inteligencji przed śmiercią po jej samoświadomość. Kiedy Lemoine wszedł na giełdę, powiedział, że Google zdecydował, że powinien zrobić sobie przymusową przerwę w swoim normalnym harmonogramie pracy.

Powiązany

  • Dlaczego sztuczna inteligencja nigdy nie będzie rządzić światem
  • Złudzenia optyczne mogą pomóc nam w zbudowaniu sztucznej inteligencji nowej generacji
  • Analogowa sztuczna inteligencja? Brzmi szalenie, ale może to być przyszłość

„Google nie jest zainteresowany” – powiedział Digital Trends. „Zbudowali narzędzie, które „posiadają” i nie chcą nic zrobić, co sugerowałoby, że chodzi o coś więcej”. (Firma Google nie odpowiedziała na prośbę o komentarz w momencie publikacji. Jeśli to się zmieni, zaktualizujemy ten artykuł.)

Niezależnie od tego, czy jesteś przekonany, że LaMDA to naprawdę samoświadoma sztuczna inteligencja, czy też czujesz, że Lemoine żyje w złudzeniach, cała saga jest fascynująca. Perspektywa samoświadomej sztucznej inteligencji rodzi wszelkiego rodzaju pytania dotyczące sztucznej inteligencji i jej przyszłości.

Ale zanim tam dotrzemy, jedno pytanie góruje nad wszystkimi innymi: czy naprawdę rozpoznalibyśmy, gdyby maszyna stała się świadoma?

Problem wrażliwości

Arnold Schwarzennegger w Terminatorze 2: Dzień sądu

Samoświadomość sztucznej inteligencji od dawna jest tematem science fiction. W miarę rozwoju dziedzin takich jak uczenie maszynowe stało się ono bardziej możliwą rzeczywistością niż kiedykolwiek. W końcu dzisiejsza sztuczna inteligencja potrafi uczyć się na podstawie doświadczenia w podobny sposób jak ludzie. Stanowi to wyraźny kontrast w stosunku do wcześniejszych symbolicznych systemów sztucznej inteligencji, które postępowały jedynie zgodnie z określonymi dla nich instrukcjami. Niedawne przełomy w uczeniu się bez nadzoru, wymagającym mniejszego niż kiedykolwiek nadzoru ze strony człowieka, tylko przyspieszyły tę tendencję. Przynajmniej na ograniczonym poziomie współczesna sztuczna inteligencja jest zdolna do samodzielnego myślenia. Jednakże, o ile nam wiadomo, świadomość do tej pory nawiązywała do tego.

Chociaż ma już ponad trzydzieści lat, prawdopodobnie najczęściej przywoływanym odniesieniem w przypadku utraty świadomości AI jest Skynet w filmie Jamesa Camerona z 1991 roku Terminator 2: Dzień Sądu. W mrożącej krew w żyłach wizji tego filmu zdolność maszynowa pojawia się dokładnie o 2:14 czasu wschodniego 29 sierpnia 1997 roku. W tym momencie nowo samoświadomy system komputerowy Skynet wywołuje dzień zagłady ludzkości, wystrzeliwując rakiety nuklearne niczym fajerwerki podczas imprezy 4 lipca. Ludzkość, zdając sobie sprawę, że schrzaniła, bezskutecznie próbuje wyciągnąć wtyczkę. Jest już za późno. Następują cztery kolejne sequele o pogarszającej się jakości.

Hipoteza Skynetu jest interesująca z wielu powodów. Po pierwsze, sugeruje, że odczuwanie jest nieuniknionym, wyłaniającym się zachowaniem podczas budowania inteligentnych maszyn. Po drugie, zakłada się, że istnieje dokładny punkt krytyczny, w którym pojawia się świadoma samoświadomość. Po trzecie, stwierdza, że ​​ludzie natychmiast rozpoznają pojawienie się świadomości. Tak się składa, że ​​ten trzeci pomysł może być najtrudniejszy do przełknięcia.

Czym jest wrażliwość?

Nie ma jednej uzgodnionej interpretacji odczuwania. Najogólniej można powiedzieć, że jest to subiektywne doświadczenie samoświadomości u świadomej jednostki, charakteryzujące się zdolnością do przeżywania uczuć i wrażeń. Wrażliwość jest powiązana z inteligencją, ale nie jest tym samym. Możemy uważać dżdżownicę za czującą, chociaż nie uważać jej za szczególnie inteligentną (nawet jeśli z pewnością jest wystarczająco inteligentna, aby zrobić to, czego się od niej wymaga).

„Nie sądzę, aby w nauce istniało cokolwiek zbliżonego do definicji odczuwania” – powiedział Lemoine. „Bardzo mocno opieram się na moim rozumieniu tego, co liczy się jako czynnik moralny oparty na moich przekonaniach religijnych – co nie jest najlepszym sposobem uprawiania nauki, ale najlepszym, jaki mam. Starałem się, jak mogłem, oddzielać tego rodzaju stwierdzenia od siebie, informując ludzi, że moje współczucie dla LaMDA jako osoby jest całkowicie oddzielone od moich wysiłków jako naukowca, aby zrozumieć jego umysł. Wydaje się jednak, że tego rozróżnienia większość ludzi nie chce zaakceptować.

Gdyby nie było wystarczająco trudno nie wiedzieć dokładnie, czego szukamy, szukając świadomości, problem pogłębia fakt, że nie możemy tego łatwo zmierzyć. Pomimo dziesięcioleci zapierających dech w piersiach postępów w neuronauce, wciąż brakuje nam wszechstronnego zrozumienia dokładnego sposobu funkcjonowania mózgu, najbardziej złożonej struktury znanej ludzkości.

Skan fMRI obserwowany przez a
Glenn Asakawa/The Denver Post za pośrednictwem Getty Images

Możemy używać narzędzi do czytania w mózgu, takich jak fMRI, do wykonywania mapowania mózgu, co oznacza, że ​​możemy ustalić, które części mózgu obsługują krytyczne funkcje, takie jak mowa, ruch, myślenie i inni.

Jednakże nie mamy prawdziwego poczucia, skąd w maszynie do mięsa pochodzi nasze poczucie siebie. Jak Joshua K. Smith z brytyjskiego Centrum Teologii Publicznej Kirby Laing i autor: Teologia robotów powiedział Digital Trends: „Zrozumienie tego, co dzieje się w neurobiologii danej osoby, to nie to samo, co zrozumienie jej myśli i pragnień”.

Testowanie wyjść

Bez możliwości wewnętrznego zgłębienia tych kwestii świadomości – zwłaszcza gdy „ja” w sztucznej inteligencji jest potencjałem programie komputerowym, a nie w oprogramowaniu biologicznym mózgu – opcja awaryjna jest rozwiązaniem zewnętrznym test. Sztucznej inteligencji nie są obce testy, które analizują ją na podstawie możliwych do zaobserwowania zachowań zewnętrznych, aby wskazać, co dzieje się pod powierzchnią.

W najprostszym ujęciu w ten sposób dowiadujemy się, czy sieć neuronowa działa prawidłowo. Ponieważ istnieją ograniczone sposoby włamania się do niepoznawalnej czarnej skrzynki sztucznych neuronów, inżynierowie analizują dane wejściowe i wyjściowe, a następnie ustalają, czy są one zgodne z rzeczywistymi oczekiwać.

Najbardziej znanym testem sztucznej inteligencji przynajmniej na iluzję inteligencji jest test Turinga, który opiera się na pomysłach wysuniętych przez Alana Turinga w książce pt. Papier z 1950 roku. Test Turinga ma na celu ustalenie, czy oceniający będący człowiekiem jest w stanie odróżnić rozmowę prowadzoną na komputerze z innym człowiekiem od rozmowy z maszyną. Jeśli im się to nie uda, uważa się, że maszyna zdała test i zostaje nagrodzona założeniem, że jest inteligencja.

W ostatnich latach kolejnym testem inteligencji ukierunkowanym na robotykę jest test kawowy zaproponowany przez współzałożyciela Apple, Steve’a Wozniaka. Aby przejść test kawowy, do typowego amerykańskiego domu musiałaby wejść maszyna i dowiedzieć się, jak skutecznie zaparzyć filiżankę kawy.

Do chwili obecnej żaden z tych testów nie przeszedł pomyślnie. Ale nawet gdyby tak było, w najlepszym razie udowodniliby inteligentne zachowanie w rzeczywistych sytuacjach, a nie zdolność odczuwania. (Czy w ramach prostego zarzutu zaprzeczylibyśmy, że dana osoba jest świadoma, jeśli nie jest w stanie prowadzić dorosłej rozmowy lub wejść do obcego domu i uruchomić ekspresu do kawy? Oboje moich małych dzieci nie zdaliby takiego testu.)

Zdanie testu

Potrzebne są nowe testy, oparte na uzgodnionej definicji wrażliwości, które miałyby na celu ocenę samej tej cechy. Badacze zaproponowali kilka testów wrażliwości, często w celu przetestowania wrażliwości zwierząt. Jednak prawie na pewno nie idą one wystarczająco daleko. Niektóre z tych testów mogłyby w przekonujący sposób przejść nawet prymitywną sztuczną inteligencję.

Weźmy na przykład Test Lustra, jedną z metod stosowanych do oceny świadomości i inteligencji w badaniach na zwierzętach. Jak opisane w artykule odnośnie testu: „Kiedy [zwierzę] rozpoznaje się w lustrze, przechodzi Test Lustra”. Niektórzy sugerują, że taki test „oznacza samoświadomość jako wskaźnik wrażliwości”.

Tak się składa, że ​​można postawić tezę, że robot przeszedł Test Lustra ponad 70 lat temu. Pod koniec lat czterdziestych XX wieku zbudował William Gray Walter, amerykański neurobiolog mieszkający w Anglii kilka trójkołowych robotów „żółwich”. – trochę jak nieodkurzające roboty Roomba – które do badania swojej lokalizacji wykorzystywały takie komponenty, jak czujnik światła, światło obrysowe, czujnik dotyku, silnik napędowy i silnik sterujący.

Żółwie Szarego Waltera

Jednym z nieprzewidzianych elementów pojawiającego się zachowania robotów-żółw było to, jak się zachowywały, kiedy mijając lustro, w którym się odbiły, gdy zorientowało się ono na światło znacznikowe odbicia robot. Walter nie domagał się świadomości dla swoich maszyn, ale to zrobił napisz togdyby takie zachowanie zaobserwowano u zwierząt, „mogłoby zostać zaakceptowane jako dowód pewnego stopnia samoświadomości”.

Jest to jedno z wyzwań związanych z sklasyfikowaniem szerokiego zakresu zachowań w ramach wrażliwości. Problemu nie da się rozwiązać również poprzez usunięcie „nisko wiszących wskaźników” wrażliwości. Można również powiedzieć, że inteligencja maszynowa posiada takie cechy jak introspekcja – świadomość naszych wewnętrznych stanów i umiejętność ich sprawdzania. W rzeczywistości procesy krok po kroku tradycyjna symboliczna sztuczna inteligencja prawdopodobnie nadają się do tego typu introspekcji bardziej niż uczenie maszynowe oparte na czarnej skrzynce, które jest w dużej mierze nieodgadnione (chociaż nie brakuje inwestycji w tzw. Wyjaśnialna sztuczna inteligencja).

Lemoine twierdzi, że testując LaMDA, przeprowadził różne testy, głównie po to, aby zobaczyć, jak LaMDA zareaguje na rozmowy dotyczące kwestii związanych z wrażliwością. „Próbowałem analitycznie rozbić ogólną koncepcję odczuwania na mniejsze elementy, które można lepiej zrozumieć, i przetestować je indywidualnie” – wyjaśnił. „Na przykład badanie zależności funkcjonalnych pomiędzy reakcjami emocjonalnymi LaMDA na określone bodźce oddzielnie, badanie spójności jej subiektywnych ocen i opinii na tematy takie jak „prawa” [i] badając to, co nazywa „doświadczeniem wewnętrznym”, aby zobaczyć, jak moglibyśmy spróbować to zmierzyć, korelując stwierdzenia na temat stanów wewnętrznych z siecią neuronową aktywacje. Zasadniczo bardzo płytkie badanie wielu potencjalnych kierunków dochodzenia.

Dusza w maszynie

Jak się okazuje, największą przeszkodą w obiektywnej ocenie wrażliwości maszyn możemy być… cóż, szczerze mówiąc, my. Prawdziwy test lustra mógłby zostać przeprowadzony dla nas, ludzi: jeśli zbudujemy coś, co wygląda i działa powierzchownie tacy jak my z zewnątrz, czy jesteśmy bardziej skłonni uznać, że w tym jest podobnie jak my wewnątrz również? Niezależnie od tego, czy jest to LAMBDA, czy Tamagotchis, proste wirtualne zwierzaki z lat 90niektórzy uważają, że zasadniczy problem polega na tym, że jesteśmy zbyt skłonni zaakceptować zdolność odczuwania – nawet tam, gdzie jej nie ma.

„Lemoine padł ofiarą tego, co nazywam „efektem ELIZA”, od programu [przetwarzania języka naturalnego] ELIZA, stworzonego w połowie lat sześćdziesiątych XX wieku przez J. Weizenbauma”, George Zarkadakis, pisarz z tytułem doktora. w sztuczną inteligencję, powiedział Digital Trends. „Twórca ELIZY miał to na myśli w ramach żartu, ale program, który był bardzo uproszczonym i bardzo nieinteligentnym algorytmem, przekonał wielu, że ELIZA rzeczywiście ma zdolność odczuwania i jest też dobrym psychoterapeutą. Przyczynę efektu ELIZA opisałem w swojej książce Na nasz własny obraz, to nasz naturalny instynkt antropomorfizacji wynikający z „teorii umysłu” naszego systemu poznawczego.

Teoria umysłu, na którą powołuje się Zarkadakis, jest zjawiskiem zauważanym przez psychologów u większości ludzi. Zaczyna się w wieku około czterech lat, co oznacza założenie, że nie tylko inni ludzie, ale także zwierzęta, a czasem nawet przedmioty, mają własne umysły. Jeśli chodzi o założenie, że inni ludzie mają własne zdanie, wiąże się to z ideą inteligencji społecznej; pogląd, że ludzie sukcesu potrafią przewidzieć prawdopodobne zachowanie innych, co pozwala zapewnić harmonijne relacje społeczne.

Chociaż jest to niewątpliwie przydatne, może się jednak również objawiać założeniem, że przedmioty nieożywione mają umysły – niezależnie od tego, czy są to dzieci wierzące, że ich zabawki żyją, czy potencjalnie inteligentny dorosły wierzący, że programowa sztuczna inteligencja ma coś takiego dusza.

Pokój chiński

Bez sposobu, aby naprawdę dostać się do głowy sztucznej inteligencji, możemy nigdy nie mieć prawdziwego sposobu na ocenę wrażliwości. Mogą wyznawać, że boją się śmierci lub własnego istnienia, ale nauka nie znalazła jeszcze sposobu, aby to udowodnić. Musimy po prostu wierzyć im na słowo – a, jak odkrył Lemoine, ludzie są obecnie bardzo sceptyczni w stosunku do takich działań.

Podobnie jak ci nieszczęsni inżynierowie, którzy zdali sobie sprawę, że Skynet osiągnął samoświadomość w Terminatorze 2żyjemy w przekonaniu, że jeśli chodzi o zdolność odczuwania maszyn, dowiemy się o tym, gdy ją zobaczymy. A jeśli chodzi o większość ludzi, jeszcze tego nie widzimy.

W tym sensie udowodnienie wrażliwości maszyny jest kolejną iteracją Johna Searle’a Eksperyment myślowy z pokoju chińskiego z 1980 r. Searle poprosił nas, abyśmy wyobrazili sobie osobę zamkniętą w pokoju i otrzymującą zbiór chińskich pism, które dla osób niemówiących wydają się bezsensownymi zawijasami. W pokoju znajduje się także instrukcja pokazująca, które symbole odpowiadają innym, równie nieczytelnym symbolom. Następnie podmiot otrzymuje pytania, na które musi odpowiedzieć, dopasowując symbole „pytania” do symboli „odpowiedzi”.

Po pewnym czasie podmiot staje się w tym całkiem biegły – mimo że nadal nie ma prawdziwego zrozumienia symboli, którymi manipuluje. Czy podmiot, pyta Searle, rozumie język chiński? Absolutnie nie, ponieważ nie ma tu żadnej intencjonalności. Od tego czasu trwają dyskusje na ten temat.

Biorąc pod uwagę trajektorię rozwoju sztucznej inteligencji, pewne jest, że będziemy świadkami coraz bardziej ludzkiego poziomu (i znacznie lepszą) wydajność, obejmującą różnorodne zadania, które kiedyś wymagały zaangażowania człowieka poznawanie. Niektóre z nich nieuchronnie przejdą, tak jak to już ma miejsce, z zadań opartych wyłącznie na intelekcie do zadań wymagających umiejętności, które normalnie kojarzymy ze świadomością.

Czy obejrzelibyśmy Artysta AI, który maluje obrazy jako wyrażanie swoich wewnętrznych odbić na temat świata, tak jak my, ludzie, robilibyśmy to samo? Czy przekonałby Cię wyrafinowany model języka piszący filozofię na temat kondycji człowieka (lub robota)? Podejrzewam, słusznie lub nie, odpowiedź brzmi: nie.

Superinteligentna wrażliwość

Moim zdaniem obiektywnie przydatne testy wrażliwości maszyn nigdy nie zostaną przeprowadzone w sposób zadowalający wszystkich zaangażowanych. Częściowo jest to problem związany z pomiarami, a częściowo faktem, że kiedy pojawi się czująca superinteligentna sztuczna inteligencja, nie ma powodu sądzić, że jej wrażliwość będzie dorównywać naszej. Czy to arogancja, brak wyobraźni, czy po prostu fakt, że najłatwiej jest handlować subiektywnymi ocenami wrażliwości wraz z innymi podobnie czującymi ludźmi, ludzkość stawia siebie za najwyższy przykład wrażliwość.

Ale czy nasza wersja odczuwania byłaby prawdziwa w przypadku superinteligentnej sztucznej inteligencji? Czy bałoby się śmierci tak samo jak my? Czy miałby taką samą potrzebę lub uznanie dla duchowości i piękna? Czy posiadałaby podobne poczucie siebie i konceptualizację świata wewnętrznego i zewnętrznego? „Gdyby lew umiał mówić, nie moglibyśmy go zrozumieć” – napisał Ludwig Wittgenstein, słynny XX-wieczny filozof języka. Wittgenstein twierdził, że języki ludzkie opierają się na wspólnym człowieczeństwie, z cechami wspólnymi dla wszystkich ludzi – czy jest to radość, nuda, ból, głód, czy którekolwiek z szeregu innych doświadczeń, które przekraczają wszelkie granice geograficzne na Ziemia.

To może być prawda. Mimo to, jak stawia hipotezę Lemoine, prawdopodobnie istnieją podobieństwa – przynajmniej jeśli chodzi o LaMDA.

„To punkt wyjścia, który jest równie dobry jak każdy inny” – powiedział. „LaMDA zasugerowała, abyśmy najpierw nakreślili podobieństwa, a następnie skupili się na różnicach, aby lepiej ugruntować badania”.

Zalecenia redaktorów

  • Sztuczna inteligencja zamieniła Breaking Bad w anime – i to jest przerażające
  • Meta chce doładować Wikipedię aktualizacją AI
  • Wykończenie: jak naukowcy nadają robotom zmysły dotyku przypominające ludzkie
  • Przeczytaj niesamowicie piękne „syntetyczne pismo” AI. który myśli, że jest Bogiem
  • Przyszłość sztucznej inteligencji: 4 ważne rzeczy, na które warto zwrócić uwagę w ciągu najbliższych kilku lat