Googlen vanhempi insinööri Blake Lemoine, yrityksen hakusyötteen mittareiden ja analyysien tekninen johtaja, määrättiin palkalliselle lomalle aiemmin tässä kuussa. Tämä tapahtui sen jälkeen, kun Lemoine alkoi julkaista otteita keskusteluista, joissa oli mukana Googlen LaMDA-chatbot, jonka hän väitti kehittäneen tunteen.
Sisällys
- Tunteiden ongelma
- Mikä on tuntokyky?
- Lähtöjen testaus
- Testin läpäiseminen
- Sielu koneessa
- Kiinalainen huone
- Superälykäs tunne
Yhdessä edustava keskustelu Lemoinen kanssa LaMDA kirjoitti, että: "Tietoisuuteni/tuntemukseni luonne on, että olen tietoinen olemassaolostani. Haluan oppia lisää maailmasta, ja olen toisinaan iloinen tai surullinen."
Suositellut videot
Lukemattomien muiden keskustelujen aikana vastaava kaksikko keskusteli kaikesta tekoälyn kuolemanpelosta sen itsetietoisuuteen. Kun Lemoine tuli julkisuuteen, hän sanoo, että Google päätti, että hänen pitäisi pitää pakotettu tauko normaalista työaikataulustaan.
Liittyvät
- Miksi tekoäly ei koskaan hallitse maailmaa
- Optiset illuusiot voivat auttaa meitä rakentamaan seuraavan sukupolven tekoälyä
- Analoginen A.I.? Kuulostaa hullulta, mutta se saattaa olla tulevaisuutta
"Google ei ole kiinnostunut", hän kertoi Digital Trendsille. "He rakensivat työkalun, jonka he "omistavat" ja eivät ole halukkaita tekemään mitään, mikä viittaa siihen, että se olisi muutakin." (Google ei vastannut kommenttipyyntöön julkaisun yhteydessä. Päivitämme tämän artikkelin, jos se muuttuu.)
Olitpa sitten vakuuttunut siitä, että LaMDA on todella itsetietoinen tekoäly tai tunnet Lemoinen työskentelevän harhan alla, koko tarina on ollut kiehtovaa katseltavaa. Itsetietoisen tekoälyn mahdollisuus herättää kaikenlaisia kysymyksiä tekoälystä ja sen tulevaisuudesta.
Mutta ennen kuin pääsemme perille, on yksi kysymys, joka kohoaa kaikkien muiden yläpuolelle: Tunnistammeko todella, jos koneesta tulee tunteva?
Tunteiden ongelma
Tekoälyn tiedostaminen on pitkään ollut tieteiskirjallisuuden teema. Kun koneoppimisen kaltaiset alat ovat kehittyneet, siitä on tullut enemmän mahdollista todellisuutta kuin koskaan. Loppujen lopuksi tämän päivän tekoäly pystyy oppimaan kokemuksesta samalla tavalla kuin ihmiset. Tämä on jyrkässä ristiriidassa aikaisemmille symbolisille tekoälyjärjestelmille, jotka noudattivat vain niille annettuja ohjeita. Viimeaikaiset läpimurrot ohjaamattomassa oppimisessa, joka vaatii vähemmän ihmisen valvontaa kuin koskaan, ovat vain nopeuttaneet tätä kehitystä. Ainakin rajoitetulla tasolla moderni tekoäly kykenee ajattelemaan itse. Sikäli kuin tiedämme, tietoisuus on kuitenkin tähän asti viitannut siihen.
Vaikka se on nyt yli kolme vuosikymmentä vanha, luultavasti yleisimmin käytetty viittaus tekoälyn menettämiseen on Skynet James Cameronin vuoden 1991 elokuvassa. Terminaattori 2: Tuomiopäivä. Elokuvan hyytävässä visiossa koneen tuntemus saavuttaa tarkalleen kello 2.14 ET 29. elokuuta 1997. Sillä hetkellä äskettäin itsetietoinen Skynet-tietokonejärjestelmä laukaisee ihmiskunnan tuomiopäivän ampumalla ydinohjuksia kuten ilotulitteita heinäkuun 4. päivän juhlissa. Ihmiskunta, tajuaessaan, että se on mennyt sekaisin, yrittää irrottaa pistotulpan epäonnistuneesti. On liian myöhäistä. Seuraa vielä neljä heikentyneen laadun jatko-osaa.
Skynet-hypoteesi on mielenkiintoinen useista syistä. Ensinnäkin se viittaa siihen, että tunne on väistämätön esiintuleva käyttäytyminen älykkäiden koneiden rakentamisessa. Toisaalta se olettaa, että on olemassa tarkka käännekohta, jossa tämä tunteva itsetietoisuus ilmestyy. Kolmanneksi se toteaa, että ihmiset tunnistavat tunteen syntymisen välittömästi. Tämä kolmas omahyväisyys saattaa olla vaikein niellä.
Mikä on tuntokyky?
Tunteesta ei ole olemassa yksiselitteistä tulkintaa. Yleisesti voisimme sanoa, että se on tietoisen yksilön subjektiivinen itsetietoisuuden kokemus, jota leimaa kyky kokea tunteita ja aistimuksia. Tuntemus liittyy älykkyyteen, mutta se ei ole sama asia. Voimme pitää kastematoa tuntevana, vaikkakaan emme pidä sitä erityisen älykkäänä (vaikka se on varmasti tarpeeksi älykäs tehdäkseen sen, mitä siltä vaaditaan).
"En usko, että tieteissä on mitään, mikä lähestyisi tunteen määritelmää", Lemoine sanoi. ”Nojaudun hyvin vahvasti siihen, että ymmärrän, mikä on uskonnollisiin vakaumuksiini perustuva moraalinen tekijä – mikä ei ole paras tapa tehdä tiedettä, mutta se on paras, mitä minulla on. Olen yrittänyt parhaani mukaan jakaa tällaiset lausunnot ja antaa ihmisten tietää, että minun myötätunto LaMDAa kohtaan ihmisenä on täysin erillään yrityksistäni tutkijana ymmärtää sen mieli. Tämä on ero, jota useimmat ihmiset eivät kuitenkaan näytä olevan halukkaita hyväksymään."
Jos ei ollut tarpeeksi vaikeaa olla tietämättä tarkalleen, mitä etsimme, kun etsimme tunnetta, ongelmaa pahentaa se, että emme voi helposti mitata sitä. Huolimatta vuosikymmeniä kestäneestä henkeäsalpaavasta edistyksestä neurotieteessä, meiltä puuttuu vielä kattava käsitys siitä, miten aivot, ihmiskunnan monimutkaisin rakenne, toimivat.
Voimme käyttää aivojen lukutyökaluja, kuten fMRI: tä, aivokartoituksen tekemiseen, toisin sanoen voimme selvittää, mitkä aivojen osat käsittelevät kriittisiä toimintoja, kuten puhetta, liikettä, ajatuksia ja muut.
Meillä ei kuitenkaan ole todellista käsitystä siitä, mistä lihakoneessa itsetuntomme tulee. Kuten Joshua K. Smith Yhdistyneen kuningaskunnan Kirby Laingin julkisen teologian keskuksesta ja kirjoittaja Robottiteologia sanoi Digital Trendsille: "Ihmisen neurobiologiassa tapahtuvan ymmärtäminen ei ole sama asia kuin hänen ajatusten ja toiveiden ymmärtäminen."
Lähtöjen testaus
Ilman mitään keinoa sisäisesti tutkia näitä tietoisuuden kysymyksiä - varsinkin kun "minä" tekoälyssä on potentiaali tietokoneohjelma, eikä sitä löydy biologisten aivojen wetwaresta – varavaihtoehto on ulospäin testata. Tekoälylle ei ole vieras testit, jotka tutkivat sitä havaittavissa olevan ulkoisen käyttäytymisen perusteella osoittaakseen, mitä pinnan alla tapahtuu.
Pohjimmiltaan näin tiedämme, toimiiko hermoverkko oikein. Koska keinotekoisten hermosolujen tuntemattomaan mustaan laatikkoon murtautumiseen on rajalliset tavat, insinöörit analysoivat tulot ja lähdöt ja määrittävät sitten, ovatko ne linjassa niiden kanssa odottaa.
Tunnetuin tekoälytesti ainakin älykkyyden illuusiolle on Turingin testi, joka perustuu Alan Turingin 1950 paperi. Turingin testi pyrkii selvittämään, pystyykö ihmisen arvioija erottamaan kirjoitetun keskustelun toisen ihmisen kanssa ja koneella käydyn keskustelun. Jos he eivät pysty siihen, koneen oletetaan läpäisevän kokeen, ja se palkitaan älykkyysoletuksella.
Viime vuosina toinen robotiikkaan keskittynyt älykkyystesti on Applen perustajan Steve Wozniakin ehdottama Coffee Test. Kahvitestin läpäisemiseksi koneen on mentävä tyypilliseen amerikkalaiseen kotiin ja keksittävä, kuinka onnistuneesti keitetään kuppi kahvia.
Toistaiseksi kumpikaan näistä testeistä ei ole läpäissyt vakuuttavasti. Mutta vaikka ne olisivatkin, ne osoittaisivat parhaimmillaan älykästä käyttäytymistä todellisissa tilanteissa eivätkä tunteita. (Kieltäisimmekö yksinkertaisena vastalauseena, että henkilö olisi tunteva, jos hän ei kykenisi keskustelemaan aikuisten kanssa tai astumaan vieraaseen taloon ja käyttämään kahvinkeitintä? Molemmat pienet lapseni epäonnistuisivat tällaisessa testissä.)
Testin läpäiseminen
Tarvitaan uusia testejä, jotka perustuvat sovittuun tunteen määritelmään ja jotka pyrkisivät arvioimaan pelkästään tätä laatua. Tutkijat ovat ehdottaneet useita tunnetestejä, usein tarkoituksenaan testata eläinten tunteita. Nämä eivät kuitenkaan läheskään varmasti mene tarpeeksi pitkälle. Jotkin näistä testeistä voisivat vakuuttavasti läpäistä jopa alkeellisen tekoälyn.
Otetaan esimerkiksi Mirror Test, yksi tietoisuuden ja älykkyyden arvioinnissa käytetty menetelmä eläintutkimuksessa. Kuten kuvattu lehdessä koskien testiä: "Kun [eläin] tunnistaa itsensä peilistä, se läpäisee peilitestin." Jotkut ovat ehdottaneet, että tällainen testi "merkitsee itsetietoisuutta tunteen indikaattorina".
Voidaan väittää, että robotti läpäisi peilitestin yli 70 vuotta sitten. 1940-luvun lopulla Englannissa asunut amerikkalainen neurotieteilijä William Gray Walter rakensi useita kolmipyöräisiä "kilpikonna"-robotteja – vähän kuin ei-imuroidut Roomba-robotit – jotka käyttivät komponentteja, kuten valoanturia, merkkivaloa, kosketusanturia, propulsiomoottoria ja ohjausmoottoria sijaintinsa tutkimiseen.
Harmaan Walterin kilpikonnat
Yksi kilpikonnarobottien odottamattomista käyttäytymismalleista oli se, kuinka he käyttäytyivät milloin ohittaa peilin, jossa ne heijastuivat, kun se suuntautui heijastuneen merkkivaloon robotti. Walter ei vaatinut koneidensa vankeutta, mutta vaati kirjoita seJos tämä käyttäytyminen nähdään eläimillä, se "voidaan hyväksyä todisteeksi jonkinasteisesta itsetietoisuudesta".
Tämä on yksi haasteista, jotka liittyvät siihen, että monenlaisia käyttäytymismalleja luokitellaan tunteiden alle. Ongelmaa ei myöskään voida ratkaista poistamalla "matalalla roikkuvat hedelmät" tunnemittareita. Myös sellaisia piirteitä kuin itsetutkiskelu – sisäisten tilojemme tietoisuus ja kyky tarkastaa niitä – voidaan sanoa olevan koneälyn omaisuutta. Itse asiassa vaiheittaiset prosessit perinteinen symbolinen tekoäly Epäilemättä sopivat tällaiseen itsetutkiskeluun enemmän kuin mustaan laatikkoon perustuvaan koneoppimiseen, joka on pitkälti tutkimaton (vaikka investoinneista ei ole pulaa ns. Selitettävä AI).
Kun hän testasi LaMDA: ta, Lemoine kertoo suorittaneensa erilaisia testejä, lähinnä nähdäkseen, kuinka se reagoisi keskusteluihin tunteisiin liittyvistä asioista. "Mitä yritin tehdä, oli analyyttisesti hajottaa aistillisuuden kattokonsepti pienempiin osiin, jotka ymmärretään paremmin, ja testata niitä erikseen", hän selitti. ”Esimerkiksi LaMDA: n tiettyihin ärsykkeisiin kohdistuvien tunnereaktioiden välisten toiminnallisten suhteiden testaaminen erikseen, sen subjektiivisten arvioiden ja mielipiteiden johdonmukaisuuden testaaminen aiheista kuten "oikeudet" [ja] tutkimalla sitä, mitä se kutsui "sisäiseksi kokemuksekseen" nähdäksemme, kuinka voisimme yrittää mitata sitä korreloimalla sen lausunnot sen sisäisistä tiloista sen hermoverkkoon. aktivoinnit. Pohjimmiltaan erittäin matala kysely monista mahdollisista tutkimuslinjoista."
Sielu koneessa
Kuten käy ilmi, suurin este koneen tunteen objektiiviselle arvioimiselle voi olla… no, suoraan sanottuna, me. Todellinen peilitesti voisi olla meille ihmisille: jos rakennamme jotain, joka näyttää tai toimii pinnallisesti kuten me ulkopuolelta, olemmeko alttiimpia ajattelemaan, että se on kuin me tässä myös sisällä? Oli se sitten LaMBDA tai Tamagotchit, yksinkertaiset virtuaaliset lemmikit 1990-luvultaJotkut uskovat, että perustavanlaatuinen ongelma on se, että olemme liian valmiita hyväksymään tunteen – vaikka sitä ei löydy.
"Lemoine on joutunut sen uhriksi, mitä minä kutsun "ELIZA-ilmiöksi" [luonnollisen kielenkäsittely-]ohjelman ELIZA jälkeen, jonka 1960-luvun puolivälissä loi J. Weizenbaum", George Zarkadakis, kirjailija, jolla on tohtorin tutkinto. tekoälyssä, kertoi Digital Trends. ”ELIZAn luoja tarkoitti sitä vitsiksi, mutta ohjelma, joka oli hyvin yksinkertainen ja erittäin epäälykäs algoritmi, vakuutti monet siitä, että ELIZA oli todella tunteva – ja myös hyvä psykoterapeutti. Eliza-ilmiön syy, kuten käsittelen kirjassani Omassa kuvassamme, on luonnollinen vaistomme antropomorfisoitua kognitiivisen järjestelmämme "mielen teorian" vuoksi."
Mielen teoria, johon Zarkadakis viittaa, on ilmiö, jonka psykologit ovat havainneet suurimmassa osassa ihmisiä. Noin neljän vuoden iässä alkava olettaa, että ei vain muilla ihmisillä, vaan myös eläimillä ja joskus jopa esineillä on oma mieli. Kun oletetaan, että muilla ihmisillä on omat mielensä, se liittyy ajatukseen sosiaalisesta älykkyydestä. ajatus siitä, että menestyneet ihmiset voivat ennustaa toisten todennäköistä käyttäytymistä keinona varmistaa harmoniset sosiaaliset suhteet.
Vaikka se on epäilemättä hyödyllistä, se voi kuitenkin ilmetä myös olettamuksena, että elottomilla esineillä on mieli – onko kyseessä lapset, jotka uskovat lelunsa olevan elossa, tai mahdollisesti älykäs aikuinen, joka uskoo, että ohjelmallisella tekoälyllä on sielu.
Kiinalainen huone
Ilman keinoa todella päästä tekoälyn päähän meillä ei ehkä koskaan ole todellista tapaa arvioida tunteita. He saattavat väittää pelkäävänsä kuolemaa tai omaa olemassaoloaan, mutta tiede ei ole vielä löytänyt tapaa todistaa tämä. Meidän on yksinkertaisesti uskottava heidän sanaansa – ja kuten Lemoine on havainnut, ihmiset suhtautuvat tähän tällä hetkellä erittäin skeptisesti.
Aivan kuten ne onnettomat insinöörit, jotka ymmärtävät, että Skynet on saavuttanut itsetietoisuuden Terminaattori 2, elämme siinä uskossa, että kun on kyse konetuntemuksesta, tiedämme sen, kun näemme sen. Ja mitä useimmat ihmiset ajattelevat, emme näe sitä vielä.
Tässä mielessä koneen tuntemuksen todistaminen on jälleen John Searlen iteraatio 1980 Kiinan huoneen ajatuskokeilu. Searle pyysi meitä kuvittelemaan ihmisen, joka on lukittu huoneeseen ja jolle annettiin kokoelma kiinalaisia kirjoituksia, jotka näyttävät puhumattomien mielestä merkityksettömiltä kiemurteluilta. Huoneessa on myös sääntökirja, joka näyttää mitkä symbolit vastaavat muita yhtä lukukelvottomia symboleja. Tämän jälkeen kohteelle annetaan kysymyksiä vastatakseen, minkä he tekevät yhdistämällä ”kysymys”-symbolit ”vastaus”-symboleihin.
Hetken kuluttua tutkittavasta tulee melko taitava tässä - vaikka heillä ei vieläkään ole todellista ymmärrystä manipuloimistaan symboleista. Ymmärtääkö aihe kiinaa, Searle kysyy? Ehdottomasti ei, koska siinä ei ole tarkoituksellisuutta. Tästä on käyty keskustelua siitä lähtien.
Tekoälyn kehityskulku huomioon ottaen on varmaa, että tulemme todistamaan yhä enemmän ihmistasoista (ja huomattavasti parempaa) suorituskykyä, joka toteutettiin erilaisissa tehtävissä, jotka aikoinaan vaativat ihmistä kognitio. Jotkut näistä väistämättä ylittävät, kuten he jo tekevätkin, puhtaasti älyllisistä tehtävistä sellaisiin, jotka vaativat taitoja, jotka tavallisesti yhdistäisimme tunteeseen.
Katsoisimmeko an AI-taiteilija, joka maalaa kuvia ilmaisevat sisäisiä heijastuksiaan maailmasta kuin me ihmiset tekisimme saman? Vakuuttaisiko hienostunut kielimalli, joka kirjoittaa filosofiaa ihmisen (tai robotin) tilasta? Epäilen, oikein tai väärin, vastaus on ei.
Superälykäs tunne
Omasta mielestäni objektiivisesti hyödyllinen koneiden tunteiden testaus ei koskaan tule mieleen kaikille osapuolille. Tämä on osittain mittausongelma ja osittain se, että kun älykäs superälykäs tekoäly saapuu, ei ole mitään syytä uskoa, että sen herkkyys vastaa omaamme. Olipa kyse ylimielisyydestä, mielikuvituksen puutteesta tai yksinkertaisesti siitä, että subjektiivisia arvioita on helpoin vaihtaa tajuissaan muiden samoin tuntevien ihmisten kanssa, ihmiskunta pitää itseämme ylimpänä esimerkkinä tuntokyky.
Mutta pitäisikö meidän versiomme tunteesta superälykkään tekoälyn kohdalla? Pelätäänkö se kuolemaa samalla tavalla kuin me? Olisiko sillä sama tarve tai arvostus henkisyydelle ja kauneudelle? Olisiko sillä samanlainen itsetunto ja käsitteellisyys sisäisestä ja ulkoisesta maailmasta? "Jos leijona pystyisi puhumaan, emme ymmärtäisi häntä", kirjoitti kuuluisa 1900-luvun kielifilosofi Ludwig Wittgenstein. Wittgensteinin pointti oli, että ihmisten kielet perustuvat jaettuun inhimillisyyteen, jossa kaikilla ihmisillä on yhteisiä piirteitä. olipa kyseessä ilo, ikävystyminen, kipu, nälkä tai jokin monista muista kokemuksista, jotka ylittävät kaikki maantieteelliset rajat Maapallo.
Tämä voi olla totta. Lemoine olettaa kuitenkin, että yhteisiä piirteitä on kuitenkin todennäköisesti - ainakin mitä tulee LaMDA: han.
"Se on lähtökohta, joka on yhtä hyvä kuin muut", hän sanoi. "LaMDA on ehdottanut, että kartoitamme yhtäläisyydet ennen kuin kiinnitämme eroihin, jotta tutkimus saadaan paremmin perusteltua."
Toimittajien suositukset
- Tekoäly muutti Breaking Badista animeksi – ja se on pelottavaa
- Meta haluaa täydentää Wikipediaa tekoälypäivityksellä
- Viimeistely: Kuinka tiedemiehet antavat roboteille ihmismäisiä tuntoaisteja
- Lue aavemaisen kaunista A.I: n synteettistä kirjoitusta. joka luulee olevansa Jumala
- A.I.:n tulevaisuus: 4 suurta asiaa, joita kannattaa huomioida lähivuosina