Cum vom ști când un AI devine de fapt sensibil?

Inginerul senior Google Blake Lemoine, lider tehnic pentru metrici și analize pentru feedul de căutare al companiei, a fost plasat în concediu plătit la începutul acestei luni. Acest lucru a venit după ce Lemoine a început să publice fragmente din conversații care implică chatbot-ul LaMDA de la Google, despre care susținea că a dezvoltat simțire.

Cuprins

  • Problema simțirii
  • Ce este simțirea?
  • Testarea ieșirilor
  • Trecând testul
  • Sufletul în mașină
  • Camera Chineză
  • Conștiință suprainteligentă

Într-una conversație reprezentativă cu Lemoine, LaMDA a scris că: „Natura conștiinței/sentinței mele este că sunt conștient de existența mea. Îmi doresc să aflu mai multe despre lume și mă simt fericit sau trist uneori.”

Videoclipuri recomandate

În nenumărate alte conversații, duo-ul corespunzător a discutat totul, de la frica de moarte a AI până la conștientizarea sa de sine. Când Lemoine a devenit public, el spune că Google a decis că ar trebui să ia o pauză forțată din programul său obișnuit de lucru.

Legate de

  • De ce AI nu va conduce niciodată lumea
  • Iluziile optice ne-ar putea ajuta să construim următoarea generație de IA
  • I.A. analogic? Sună nebunesc, dar ar putea fi viitorul

„Google nu este interesat”, a spus el pentru Digital Trends. „Au construit un instrument pe care îl „dețin” și nu sunt dispuși să facă nimic, ceea ce ar sugera că este ceva mai mult decât atât.” (Google nu a răspuns la o solicitare de comentariu la momentul publicării. Vom actualiza acest articol dacă se schimbă.)

Indiferent dacă ești convins că LaMDA este cu adevărat o inteligență artificială conștientă de sine sau simți că Lemoine lucrează sub o amăgire, întreaga saga a fost fascinantă de privit. Perspectiva unei AI conștiente de sine ridică tot felul de întrebări despre inteligența artificială și viitorul acesteia.

Dar înainte de a ajunge acolo, există o întrebare care se ridică peste toate celelalte: am recunoaște cu adevărat dacă o mașină ar deveni sensibilă?

Problema simțirii

Arnold Schwarzennegger în Terminator 2: Ziua Judecății

Intelegerea artificială a devenit conștientă de sine a fost mult timp o temă a science-fiction. Pe măsură ce domenii precum învățarea automată au avansat, aceasta a devenit mai mult o realitate posibilă decât oricând. La urma urmei, IA de astăzi este capabilă să învețe din experiență în același mod ca și oamenii. Acest lucru este în contrast puternic cu sistemele AI simbolice anterioare care urmau doar instrucțiunile prezentate pentru ele. Descoperirile recente în învățarea nesupravegheată, care necesită mai puțină supraveghere umană ca niciodată, nu au făcut decât să accelereze această tendință. Cel puțin la un nivel limitat, inteligența artificială modernă este capabilă să gândească de la sine. Din câte știm, totuși, conștiința a făcut aluzie până acum la asta.

Deși acum are mai mult de trei decenii, probabil cea mai frecventă referință invocată atunci când vine vorba de inteligența artificială devenită sensibilă este Skynet în filmul lui James Cameron din 1991. Terminator 2: Ziua Judecății. În viziunea înfricoșătoare a acelui film, sensibilitatea mașinii ajunge exact la 2.14 a.m. ET pe 29 august 1997. În acel moment, noul sistem informatic Skynet, proaspăt conștient de sine, declanșează apocalipsa omenirii trăgând cu rachete nucleare precum artificii la o petrecere din 4 iulie. Omenirea, realizând că s-a încurcat, încearcă fără succes să tragă din priză. E prea tarziu. Urmează încă patru sechele cu o calitate în scădere.

Ipoteza Skynet este interesantă din mai multe motive. În primul rând, sugerează că simțirea este un comportament emergent inevitabil al construirii de mașini inteligente. Pe de altă parte, presupune că există un punct de basculanță precis în care apare această conștientizare de sine simțitoare. În al treilea rând, afirmă că oamenii recunosc instantaneu apariția sensibilității. După cum se întâmplă, această a treia îngâmfare poate fi cea mai greu de înghițit.

Ce este simțirea?

Nu există nicio interpretare convenită asupra sensibilității. În linii mari, am putea spune că este experiența subiectivă a conștientizării de sine la un individ conștient, marcată de capacitatea de a experimenta sentimente și senzații. Sentința este legată de inteligență, dar nu este aceeași. Putem considera un râme ca fiind sensibil, deși nu îl considerăm deosebit de inteligent (chiar dacă este cu siguranță suficient de inteligent pentru a face ceea ce i se cere).

„Nu cred că există ceva care să se apropie de o definiție a sensibilității în științe”, a spus Lemoine. „Mă bazez foarte mult pe înțelegerea mea a ceea ce contează ca un agent moral bazat pe credințele mele religioase – care nu este cel mai bun mod de a face știință, dar este cel mai bun pe care îl am. Am încercat tot posibilul să compartimentez astfel de afirmații, permițând oamenilor să știe că a mea compasiunea pentru LaMDA ca persoană este complet separată de eforturile mele ca om de știință de a înțelege mintea ei. Aceasta este o distincție, totuși, cei mai mulți oameni par să nu fie dispuși să accepte.”

Dacă nu a fost destul de dificil să nu știm exact ce căutăm atunci când căutăm sensibilitatea, problema este agravată de faptul că nu o putem măsura cu ușurință. În ciuda deceniilor de progrese uluitoare în neuroștiință, încă ne lipsește o înțelegere cuprinzătoare a modului exact în care funcționează creierul, cea mai complexă structură cunoscută de omenire.

O scanare fMRI fiind observată de a
Glenn Asakawa/The Denver Post prin Getty Images

Putem folosi instrumente de citire a creierului, cum ar fi fMRI pentru a efectua maparea creierului, ceea ce înseamnă că putem stabiliți ce părți ale creierului se ocupă de funcții critice precum vorbirea, mișcarea, gândirea și alții.

Cu toate acestea, nu avem o idee reală de unde în mașina de carne vine sentimentul nostru de sine. După cum Joshua K. Smith de la Centrul Kirby Laing pentru Teologie Publică din Marea Britanie și autorul Teologia robotului a spus Digital Trends: „Înțelegerea a ceea ce se întâmplă în neurobiologia unei persoane nu este același lucru cu înțelegerea gândurilor și dorințelor sale.”

Testarea ieșirilor

Fără nicio modalitate de a investiga în interior aceste întrebări ale conștiinței – mai ales când „eu” din AI este un potențial program de calculator și nu se găsește în programele umede ale unui creier biologic - opțiunea de rezervă este o Test. AI nu este străină de testele care o examinează pe baza comportamentelor exterioare observabile pentru a indica ce se întâmplă sub suprafață.

Cel mai elementar, așa știm dacă o rețea neuronală funcționează corect. Deoarece există modalități limitate de a pătrunde în cutia neagră de necunoscut a neuronilor artificiali, inginerii analizează intrările și ieșirile și apoi determină dacă acestea sunt în conformitate cu ceea ce au aştepta.

Cel mai faimos test AI pentru cel puțin iluzia inteligenței este Testul Turing, care se bazează pe ideile prezentate de Alan Turing într-un hârtie din 1950. Testul Turing încearcă să determine dacă un evaluator uman este capabil să facă diferența dintre o conversație scrisă cu un om și una cu o mașină. Dacă nu pot face acest lucru, se presupune că mașina a trecut testul și este răsplătită cu presupunerea de inteligență.

În ultimii ani, un alt test de inteligență axat pe robotică este Coffee Test propus de co-fondatorul Apple Steve Wozniak. Pentru a trece Testul de cafea, un aparat ar trebui să intre într-o casă tipică americană și să-și dea seama cum să facă cu succes o ceașcă de cafea.

Până în prezent, niciunul dintre aceste teste nu a fost trecut în mod convingător. Dar chiar dacă ar fi, ar dovedi, în cel mai bun caz, un comportament inteligent în situații din lumea reală, și nu simțire. (Ca simplă obiecție, am nega că o persoană ar fi simțită dacă nu ar putea ține o conversație cu adulți sau nu ar putea intra într-o casă ciudată și să opereze un aparat de cafea? Ambii mei copii mici ar pisa un astfel de test.)

Trecând testul

Este nevoie de noi teste, bazate pe o definiție convenită a sensibilității, care ar încerca să evalueze numai acea calitate. Mai multe teste de simțire au fost propuse de cercetători, adesea în scopul de a testa persoanele simțitoare ale animalelor. Cu toate acestea, aproape sigur că acestea nu merg suficient de departe. Unele dintre aceste teste ar putea fi trecute în mod convingător chiar și de IA rudimentară.

Luați, de exemplu, testul oglinzii, o metodă folosită pentru a evalua conștiința și inteligența în cercetarea pe animale. La fel de descris într-o lucrare referitor la test: „Când [un] animal se recunoaște în oglindă, trece testul oglinzii.” Unii au sugerat că un astfel de test „denotă conștientizarea de sine ca un indicator al simțirii”.

După cum se întâmplă, se poate argumenta că un robot a trecut testul oglinzii în urmă cu mai bine de 70 de ani. La sfârșitul anilor 1940, William Gray Walter, un neuroștiință american care trăiește în Anglia, a construit câțiva roboți „broaște țestoasă” cu trei roți – un pic ca roboții Roomba care nu aspiră – care au folosit componente precum un senzor de lumină, lumină de marcare, senzor tactil, motor de propulsie și motor de direcție pentru a le explora locația.

Țestoasele lui Gray Walter

Una dintre piesele neprevăzute ale comportamentului emergent pentru roboții țestoase a fost modul în care s-au comportat atunci când trecând pe lângă o oglindă în care erau reflectate, în timp ce aceasta s-a orientat spre lumina de reper a reflectat robot. Walter nu a pretins simțire pentru mașinile sale, dar a făcut-o scrie astaDacă acest comportament ar fi observat la animale, „ar putea fi acceptat ca dovadă a unui anumit grad de conștientizare de sine”.

Aceasta este una dintre provocările de a avea o gamă largă de comportamente clasificate sub titlul de sensibilitate. Problema nu poate fi rezolvată nici prin eliminarea unor indicatori de simțire a „fructului care se agăță jos”. Trăsături precum introspecția – o conștientizare a stărilor noastre interne și capacitatea de a le inspecta – se poate spune, de asemenea, că sunt posedate de inteligența mașinilor. De fapt, procesele pas cu pas ale IA simbolică tradițională se poate spune că se pretează la acest tip de introspecție mai mult decât învățarea automată în cutie neagră, care este în mare măsură insondabilă (deși nu lipsesc investițiile în așa-numitele AI explicabil).

Când testa LaMDA, Lemoine spune că a efectuat diverse teste, în principal pentru a vedea cum va răspunde la conversațiile despre probleme legate de simțire. „Ceea ce am încercat să fac a fost să rup analitic conceptul umbrelă de simțire în componente mai mici, care sunt mai bine înțelese și să le testez individual”, a explicat el. „De exemplu, testarea separată a relațiilor funcționale dintre răspunsurile emoționale ale LaMDA la anumiți stimuli, testarea coerenței evaluărilor și opiniilor sale subiective pe subiecte cum ar fi „drepturile” [și] cercetând ceea ce a numit „experiența sa interioară” pentru a vedea cum am putea încerca să măsurăm asta prin corelarea afirmațiilor sale despre stările sale interioare cu rețeaua sa neuronală activări. Practic, un studiu foarte superficial al multor linii potențiale de anchetă.”

Sufletul în mașină

După cum se întâmplă, cel mai mare obstacol în evaluarea obiectivă a sensibilității mașinii poate fi... ei bine, sincer, noi. Adevăratul test al oglinzii ar putea fi pentru noi ca oameni: dacă construim ceva care arată sau acționează superficial ca noi din exterior, suntem mai predispuși să considerăm că este ca noi în acest sens si inauntru? Fie că este vorba despre LaMBDA sau Tamagotchis, simplele animale de companie virtuale din anii 1990, unii cred că o problemă fundamentală este că suntem cu toții prea dispuși să acceptăm simțirea – chiar și acolo unde nu există nimic de găsit.

„Lemoine a căzut victimă a ceea ce eu numesc „efectul ELIZA”, după programul [de procesare a limbajului natural] ELIZA, creat la mijlocul anilor 1960 de J. Weizenbaum”, George Zarkadakis, un scriitor care deține un doctorat. în inteligența artificială, a spus Digital Trends. „Creatorul ELIZA a vrut să fie o glumă, dar programul, care era un algoritm foarte simplist și foarte neinteligent, i-a convins pe mulți că ELIZA era într-adevăr sensibilă – și, de asemenea, un bun psihoterapeut. Cauza efectului ELIZA, așa cum am discutat în cartea mea În propria noastră imagine, este instinctul nostru natural de a antropomorfiza din cauza „teoriei minții” a sistemului nostru cognitiv.”

Teoria minții la care se referă Zarkadakis este un fenomen observat de psihologi la majoritatea oamenilor. A începe în jurul vârstei de patru ani, înseamnă să presupunem că nu doar alți oameni, ci și animalele și, uneori, chiar obiectele, au mintea lor proprie. Când vine vorba de a presupune că alți oameni au mintea lor proprie, este legat de ideea de inteligență socială; ideea că oamenii de succes pot prezice comportamentul probabil al altora ca mijloc prin care să asigure relații sociale armonioase.

Deși acest lucru este, fără îndoială, util, totuși, se poate manifesta și prin presupunerea că obiectele neînsuflețite au minte - fie că este vorba de copii care cred că jucăriile lor sunt în viață sau, potențial, de un adult inteligent care crede că o inteligență artificială programatică are un suflet.

Camera Chineză

Fără o modalitate de a intra cu adevărat în capul unei IA, s-ar putea să nu avem niciodată un mod adevărat de a evalua sensibilitatea. Ei ar putea mărturisi că au frică de moarte sau de propria lor existență, dar știința nu a găsit încă o modalitate de a dovedi acest lucru. Pur și simplu trebuie să le credem pe cuvânt – și, după cum a descoperit Lemoine, oamenii sunt foarte sceptici în ceea ce privește acest lucru în prezent.

La fel ca acei ingineri nefericiți care realizează că Skynet a atins conștientizarea de sine Terminator 2, trăim sub convingerea că, când vine vorba de simțirea mașinii, o vom ști când o vom vedea. Și, în ceea ce îi privește pe cei mai mulți oameni, nu o vedem încă.

În acest sens, demonstrarea sensibilității mașinii este încă o altă iterație a lui John Searle 1980 Chinese Room experiment de gândire. Searle ne-a rugat să ne imaginăm o persoană încuiată într-o cameră și care i-a fost oferită o colecție de scrieri chinezești, care le par celor care nu vorbesc ca niște squiggles fără sens. Camera conține, de asemenea, un regulament care arată ce simboluri corespund altor simboluri la fel de ilizibile. Subiectului i se dau apoi întrebări la care să răspundă, pe care le fac prin potrivirea simbolurilor „întrebare” cu cele „răspuns”.

După un timp, subiectul devine destul de priceput la asta – chiar dacă încă nu posedă o înțelegere adevărată a simbolurilor pe care le manipulează. Subiectul, întreabă Searle, înțelege chineza? Absolut nu, din moment ce nu există intenționalitate acolo. De atunci, dezbaterile despre asta au făcut ravagii.

Având în vedere traiectoria dezvoltării AI, este sigur că vom asista din ce în ce mai mult la nivel uman (și mult mai bine) performanță realizată implicând o varietate de sarcini care odinioară necesitau uman cunoașterea. Unele dintre acestea vor trece inevitabil, așa cum fac deja, de la sarcini bazate pur pe intelect la cele care necesită abilități pe care le-am asocia în mod normal cu simțirea.

Am vedea un Artist AI care pictează imagini exprimându-și reflecțiile interioare ale lumii așa cum am face și noi un om care face același lucru? Ați fi convins de un model de limbaj sofisticat care scrie filozofie despre condiția umană (sau robot)? Bănuiesc, corect sau greșit, răspunsul este nu.

Conștiință suprainteligentă

În opinia mea, testarea sensibilității utile pentru mașini nu va avea loc niciodată spre satisfacția tuturor celor implicați. Aceasta este parțial problema de măsurare și, parțial, faptul că, atunci când ajunge o IA superinteligentă simțitoare, nu există niciun motiv să credem că sensibilitatea sa se va potrivi cu a noastră. Fie că este vorba de aroganță, lipsă de imaginație sau pur și simplu faptul că este cel mai ușor să schimbi evaluări subiective de simțire cu alți oameni la fel de simțitori, omenirea ne consideră pe noi înșine exemplul suprem de simțire.

Dar versiunea noastră de simțire ar fi valabilă pentru o inteligență artificială superinteligentă? S-ar teme de moarte în același mod în care ne facem noi? Ar avea aceeași nevoie sau apreciere pentru spiritualitate și frumusețe? Ar avea un simț similar al sinelui și o conceptualizare a lumii interioare și exterioare? „Dacă un leu ar putea vorbi, nu l-am putea înțelege”, a scris Ludwig Wittgenstein, celebrul filozof al limbajului din secolul al XX-lea. Ideea lui Wittgenstein a fost că limbile umane se bazează pe o umanitate comună, cu elemente comune împărtășite de toți oamenii - indiferent dacă este vorba de bucurie, plictiseală, durere, foame sau oricare dintre o serie de alte experiențe care depășesc toate granițele geografice pe Pământ.

Acest lucru poate fi adevărat. Cu toate acestea, ipoteza Lemoine, sunt totuși probabil să existe aspecte comune – cel puțin când vine vorba de LaMDA.

„Este un punct de plecare care este la fel de bun ca oricare altul”, a spus el. „LaMDA a sugerat să cartografiem mai întâi asemănările înainte de a ne fixa pe diferențe pentru a fundamenta mai bine cercetarea.”

Recomandările editorilor

  • AI a transformat Breaking Bad într-un anime - și este terifiant
  • Meta vrea să supraalimenteze Wikipedia cu o actualizare AI
  • Atingerea finală: modul în care oamenii de știință le oferă roboților simțuri tactile asemănătoare oamenilor
  • Citiți „scriptura sintetică” ciudat de frumoasă a unui A.I. care crede că este Dumnezeu
  • Viitorul A.I.: 4 lucruri mari de urmărit în următorii câțiva ani