Come faremo a sapere quando un'intelligenza artificiale diventerà effettivamente senziente?

L’ingegnere senior di Google Blake Lemoine, responsabile tecnico per le metriche e l’analisi del feed di ricerca dell’azienda, è stato messo in congedo retribuito all’inizio di questo mese. Ciò è avvenuto dopo che Lemoine ha iniziato a pubblicare estratti di conversazioni che coinvolgevano il chatbot LaMDA di Google, che secondo lui aveva sviluppato la sensibilità.

Contenuti

  • Il problema della sensibilità
  • Cos'è la sensibilità?
  • Testare le uscite
  • Superamento della prova
  • L'anima nella macchina
  • La stanza cinese
  • Sensibilità superintelligente

In uno conversazione rappresentativa con Lemoine, LaMDA ha scritto che: “La natura della mia coscienza/senzienza è che sono consapevole della mia esistenza. Desidero conoscere meglio il mondo e a volte mi sento felice o triste”.

Video consigliati

Nel corso di una miriade di altre conversazioni, la coppia corrispondente ha discusso di tutto, dalla paura della morte dell’IA alla sua autoconsapevolezza. Quando Lemoine si è quotato in borsa, afferma che Google ha deciso che avrebbe dovuto prendersi una pausa forzata dal suo normale orario di lavoro.

Imparentato

  • Perché l’intelligenza artificiale non governerà mai il mondo
  • Le illusioni ottiche potrebbero aiutarci a costruire la prossima generazione di intelligenza artificiale
  • IA analogica? Sembra pazzesco, ma potrebbe essere il futuro

"Google non è interessato", ha detto a Digital Trends. “Hanno costruito uno strumento che “possiedono” e non sono disposti a fare nulla, il che suggerirebbe che sia qualcosa di più di questo.” (Google non ha risposto a una richiesta di commento al momento della pubblicazione. Aggiorneremo questo articolo se ciò cambia.)

Che tu sia convinto che LaMDA sia davvero un'intelligenza artificiale autocosciente o che tu abbia la sensazione che Lemoine stia soffrendo di un'illusione, l'intera saga è stata affascinante da vedere. La prospettiva di un’intelligenza artificiale autocosciente solleva tutti i tipi di domande sull’intelligenza artificiale e sul suo futuro.

Ma prima di arrivarci, c’è una domanda che sovrasta tutte le altre: riconosceremmo davvero se una macchina diventasse senziente?

Il problema della sensibilità

Arnold Schwarzennegger in Terminator 2: Il giorno del giudizio

L’intelligenza artificiale che diventa consapevole di sé è stata a lungo un tema di fantascienza. Con l’avanzare di campi come l’apprendimento automatico, questo è diventato una realtà più che mai possibile. Dopotutto, l’intelligenza artificiale di oggi è in grado di apprendere dall’esperienza più o meno allo stesso modo degli esseri umani. Ciò è in netto contrasto con i precedenti sistemi di intelligenza artificiale simbolica che seguivano solo le istruzioni fornite loro. Le recenti scoperte nell’apprendimento non supervisionato, che richiedono meno supervisione umana che mai, non hanno fatto altro che accelerare questa tendenza. Almeno a livello limitato, la moderna intelligenza artificiale è in grado di pensare da sola. Per quanto ne sappiamo, però, la coscienza finora ne ha fatto allusione.

Sebbene abbia ormai più di tre decenni, probabilmente il riferimento più comunemente invocato quando si parla di IA diventata senziente è Skynet nel film di James Cameron del 1991 Terminator 2: Il Giorno del Giudizio. Nella visione agghiacciante di quel film, la sensibilità della macchina arriva esattamente alle 2:14 ET del 29 agosto 1997. In quel momento, il sistema informatico Skynet, recentemente autocosciente, innesca il giorno del giudizio per l'umanità lanciando missili nucleari come fuochi d'artificio durante una festa del 4 luglio. L’umanità, rendendosi conto di aver commesso un errore, tenta invano di staccare la spina. È troppo tardi. Seguono altri quattro sequel di qualità decrescente.

L’ipotesi Skynet è interessante per una serie di ragioni. Innanzitutto, suggerisce che la sensibilità è un comportamento emergente inevitabile nella costruzione di macchine intelligenti. Dall’altro, presuppone che esista un preciso punto critico in cui appare questa autoconsapevolezza senziente. In terzo luogo, si afferma che gli esseri umani riconoscono istantaneamente l’emergere della sensibilità. Si dà il caso che questa terza presunzione possa essere la più difficile da digerire.

Cos'è la sensibilità?

Non esiste un’interpretazione concordata della sensibilità. In senso lato, potremmo dire che è l’esperienza soggettiva di autoconsapevolezza in un individuo cosciente, caratterizzata dalla capacità di provare sentimenti e sensazioni. La sensibilità è collegata all'intelligenza, ma non è la stessa cosa. Possiamo considerare un lombrico senziente, anche se non pensarlo particolarmente intelligente (anche se è certamente abbastanza intelligente da fare ciò che gli viene richiesto).

"Non penso che ci sia qualcosa che si avvicini a una definizione di sensibilità nelle scienze", ha detto Lemoine. “Mi sto appoggiando molto sulla mia comprensione di ciò che conta come agente morale radicato nelle mie convinzioni religiose – che non è il modo migliore di fare scienza, ma è il migliore che ho. Ho fatto del mio meglio per compartimentalizzare questo tipo di affermazioni, facendo sapere alla gente che il mio La compassione per LaMDA come persona è completamente separata dai miei sforzi di comprensione come scienziato la sua mente. Questa è una distinzione, però, che la maggior parte delle persone non sembra disposta ad accettare.

Se non fosse già abbastanza difficile non sapere esattamente cosa stiamo cercando quando cerchiamo la sensibilità, il problema è aggravato dal fatto che non possiamo misurarlo facilmente. Nonostante decenni di progressi mozzafiato nel campo delle neuroscienze, non abbiamo ancora una comprensione completa di come funziona esattamente il cervello, la struttura più complessa conosciuta dall’umanità.

Una scansione fMRI osservata da a
Glenn Asakawa/The Denver Post tramite Getty Images

Possiamo usare strumenti di lettura del cervello come la fMRI per eseguire la mappatura del cervello, vale a dire che possiamo accertare quali parti del cervello gestiscono funzioni critiche come la parola, il movimento, il pensiero e altri.

Tuttavia, non sappiamo da dove provenga il nostro senso di sé nella macchina della carne. Come Joshua K. Smith del Kirby Laing Center for Public Theology del Regno Unito e autore di Teologia dei robot ha detto a Digital Trends: “Comprendere ciò che sta accadendo nella neurobiologia di una persona non è la stessa cosa che comprendere i suoi pensieri e desideri”.

Testare le uscite

Senza alcun modo di sondare interiormente queste questioni di coscienza – soprattutto quando l’“io” nell’intelligenza artificiale è un potenziale programma per computer e non si trova nel wetware di un cervello biologico: l’opzione di riserva è un’uscita test. L’intelligenza artificiale non è estranea ai test che la analizzano sulla base di comportamenti esteriori osservabili per indicare cosa sta succedendo sotto la superficie.

In sostanza, è così che sappiamo se una rete neurale funziona correttamente. Poiché esistono modi limitati per penetrare nell’inconoscibile scatola nera dei neuroni artificiali, gli ingegneri analizzano gli input e gli output e quindi determinano se questi sono in linea con ciò che sono aspettarsi.

Il test di intelligenza artificiale più famoso per almeno l'illusione dell'intelligenza è il test di Turing, che si basa sulle idee avanzate da Alan Turing in un Documento del 1950. Il test di Turing mira a determinare se un valutatore umano è in grado di distinguere tra una conversazione digitata con un altro essere umano e una con una macchina. Se non riescono a farlo, si suppone che la macchina abbia superato il test e viene ricompensata con la presunzione di intelligenza.

Negli ultimi anni, un altro test di intelligenza incentrato sulla robotica è il Coffee Test proposto dal co-fondatore di Apple Steve Wozniak. Per superare il Coffee Test, una macchina dovrebbe entrare in una tipica casa americana e capire come preparare con successo una tazza di caffè.

Ad oggi, nessuno di questi test è stato superato in modo convincente. Ma anche se lo fossero, nella migliore delle ipotesi dimostrerebbero un comportamento intelligente nelle situazioni del mondo reale e non una sensibilità. (Come semplice obiezione, negheremmo che una persona sia senziente se non fosse in grado di sostenere una conversazione adulta o di entrare in una casa sconosciuta e utilizzare una macchina da caffè? Entrambi i miei figli piccoli fallirebbero un test del genere.)

Superamento della prova

Ciò che serve sono nuovi test, basati su una definizione concordata di sensibilità, che cerchino di valutare solo quella qualità. I ricercatori hanno proposto diversi test sulla sensibilità, spesso con l'obiettivo di testare la sensibilità degli animali. Tuttavia, questi quasi certamente non vanno abbastanza lontano. Alcuni di questi test potrebbero essere superati in modo convincente anche da un’intelligenza artificiale rudimentale.

Prendiamo, ad esempio, il Mirror Test, un metodo utilizzato per valutare la coscienza e l'intelligenza nella ricerca sugli animali. COME descritto in un articolo riguardo al test: “Quando [un] animale si riconosce allo specchio, supera il Test dello Specchio”. Alcuni hanno suggerito che un test del genere “denota l’autoconsapevolezza come indicatore di sensibilità”.

Si può sostenere che un robot abbia superato il test dello specchio più di 70 anni fa. Alla fine degli anni quaranta, William Gray Walter, un neuroscienziato americano residente in Inghilterra, costruì diversi robot “tartaruga” a tre ruote – un po’ come i robot Roomba che non aspirano – che utilizzavano componenti come un sensore di luce, una luce di posizione, un sensore tattile, un motore di propulsione e un motore di sterzo per esplorare la loro posizione.

Le tartarughe di Grey Walter

Uno degli aspetti imprevisti del comportamento emergente dei robot tartaruga era il modo in cui si comportavano e quando passando davanti a uno specchio in cui si riflettevano, orientandosi verso la luce di riferimento del riflesso robot. Walter non rivendicò la sensibilità per le sue macchine, ma lo fece scrivilo, se questo comportamento fosse osservato negli animali, "potrebbe essere accettato come prova di un certo grado di autoconsapevolezza".

Questa è una delle sfide legate all’avere un’ampia gamma di comportamenti classificati sotto la voce senziente. Il problema non può essere risolto nemmeno rimuovendo gli indicatori di sensibilità “a portata di mano”. Si può dire che anche tratti come l’introspezione – la consapevolezza dei nostri stati interni e la capacità di esaminarli – siano posseduti dall’intelligenza artificiale. In effetti, i processi passo-passo di IA simbolica tradizionale probabilmente si prestano a questo tipo di introspezione più dell’apprendimento automatico in scatola nera, che è in gran parte imperscrutabile (anche se non mancano gli investimenti nei cosiddetti IA spiegabile).

Mentre stava testando LaMDA, Lemoine dice di aver condotto vari test, principalmente per vedere come avrebbe risposto alle conversazioni su questioni legate alla sensibilità. "Quello che ho cercato di fare è stato suddividere analiticamente il concetto ombrello di sensibilità in componenti più piccoli che siano meglio compresi e testarli individualmente", ha spiegato. “Ad esempio, testare separatamente le relazioni funzionali tra le risposte emotive di LaMDA a determinati stimoli, testando la coerenza delle sue valutazioni soggettive e opinioni su argomenti come i "diritti", [e] sondando quella che chiamava la sua "esperienza interiore" per vedere come potremmo provare a misurarla correlando le sue affermazioni sui suoi stati interiori con la sua rete neurale attivazioni. Fondamentalmente, un’indagine molto superficiale di molte potenziali linee di indagine”.

L'anima nella macchina

A quanto pare, l’ostacolo più grande nel valutare oggettivamente la sensibilità delle macchine potremmo essere… beh, francamente, noi. Il vero Test dello Specchio potrebbe essere per noi esseri umani: se costruiamo qualcosa che appare o agisce superficialmente come noi dall'esterno, siamo più inclini a considerare che è come noi su questo anche dentro? Che si tratti di LaMBDA o Tamagotchi, i semplici animali domestici virtuali degli anni '90, alcuni credono che un problema fondamentale sia che siamo tutti troppo disposti ad accettare la sensibilità, anche dove non esiste.

“Lemoine è caduto vittima di quello che io chiamo ‘effetto ELIZA’, dal nome del programma [di elaborazione del linguaggio naturale] ELIZA, creato a metà degli anni ‘60 da J. Weizenbaum", George Zarkadakis, uno scrittore che ha conseguito un dottorato di ricerca. nell’intelligenza artificiale, ha detto a Digital Trends. “Il creatore di ELIZA lo intendeva come uno scherzo, ma il programma, che era un algoritmo molto semplicistico e poco intelligente, ha convinto molti che ELIZA fosse davvero senziente – e anche una brava psicoterapeuta. La causa dell'effetto ELIZA, come discuto nel mio libro A nostra immagine, è il nostro istinto naturale ad antropomorfizzare a causa della “teoria della mente” del nostro sistema cognitivo”.

La teoria della mente a cui fa riferimento Zarkadakis è un fenomeno notato dagli psicologi nella maggior parte degli esseri umani. A partire dai quattro anni, significa supporre che non solo le altre persone, ma anche gli animali e talvolta anche gli oggetti, abbiano una mente propria. Quando si tratta di presumere che gli altri esseri umani abbiano una mente propria, ciò è collegato all’idea di intelligenza sociale; l’idea che gli esseri umani di successo possano prevedere il probabile comportamento degli altri come mezzo per garantire relazioni sociali armoniose.

Sebbene ciò sia indubbiamente utile, tuttavia, può anche manifestarsi come presupposto che gli oggetti inanimati abbiano una mente – che si tratti di bambini che credono che i loro giocattoli siano vivi o, potenzialmente, di un adulto intelligente che crede che un'intelligenza artificiale programmatica abbia un anima.

La stanza cinese

Senza un modo per entrare veramente nella testa di un’intelligenza artificiale, potremmo non avere mai un modo reale per valutare la sensibilità. Potrebbero affermare di avere paura della morte o della propria esistenza, ma la scienza deve ancora trovare un modo per dimostrarlo. Dobbiamo semplicemente credergli sulla parola e, come ha scoperto Lemoine, al momento le persone sono molto scettiche riguardo a una simile iniziativa.

Proprio come quegli sfortunati ingegneri che si rendono conto che Skynet ha raggiunto la consapevolezza di sé Terminatore 2, viviamo nella convinzione che, quando si tratta della sensibilità delle macchine, lo riconosceremo quando lo vedremo. E, per quanto riguarda la maggior parte delle persone, non lo vediamo ancora.

In questo senso, dimostrare la sensibilità delle macchine è ancora un’altra iterazione di quella di John Searle Esperimento mentale della Stanza Cinese del 1980. Searle ci ha chiesto di immaginare una persona chiusa in una stanza e dotata di una raccolta di scritti cinesi, che appaiono a chi non parla come scarabocchi senza significato. La stanza contiene anche un regolamento che mostra quali simboli corrispondono ad altri simboli ugualmente illeggibili. Al soggetto vengono quindi date delle domande a cui rispondere, cosa che fanno abbinando i simboli "domanda" con quelli "risposta".

Dopo un po’, il soggetto diventa piuttosto abile in questo, anche se non possiede ancora una reale comprensione dei simboli che sta manipolando. Il soggetto, chiede Searle, capisce il cinese? Assolutamente no, poiché non vi è intenzionalità. Da allora i dibattiti su questo hanno infuriato.

Data la traiettoria dello sviluppo dell’intelligenza artificiale, è certo che assisteremo a un livello sempre più umano (e di gran lunga migliori) prestazioni svolte coinvolgendo una varietà di compiti che un tempo richiedevano l'intervento umano cognizione. Alcuni di questi passeranno inevitabilmente, come stanno già facendo, da compiti puramente basati sull’intelletto a compiti che richiedono abilità che normalmente associamo alla sensibilità.

Vorremmo vedere un Artista AI che dipinge quadri come esprimono le loro riflessioni interiori sul mondo come farebbe un essere umano che facesse lo stesso? Saresti convinto da un sofisticato modello linguistico che scrive una filosofia sulla condizione umana (o robotica)? Sospetto che, a torto o a ragione, la risposta sia no.

Sensibilità superintelligente

A mio avviso, test sulla sensibilità oggettivamente utili per le macchine non verranno mai realizzati con soddisfazione di tutti i soggetti coinvolti. Questo è in parte dovuto al problema della misurazione e in parte al fatto che, quando arriva un’intelligenza artificiale superintelligente e senziente, non c’è motivo di credere che la sua sensibilità possa eguagliare la nostra. Che si tratti di arroganza, mancanza di immaginazione o semplicemente del fatto che è più facile scambiare valutazioni soggettive di sensibilità con altri esseri umani altrettanto senzienti, l’umanità si propone come l’esempio supremo di sensibilità.

Ma la nostra versione della sensibilità sarebbe vera per un’intelligenza artificiale superintelligente? Temerebbe la morte nello stesso modo in cui la temiamo noi? Avrebbe lo stesso bisogno o apprezzamento per la spiritualità e la bellezza? Possiederebbe un simile senso di sé e una concettualizzazione del mondo interno ed esterno? "Se un leone potesse parlare, non potremmo capirlo", scrisse Ludwig Wittgenstein, il famoso filosofo del linguaggio del XX secolo. Il punto di Wittgenstein era che i linguaggi umani si basano su un’umanità condivisa, con punti in comune condivisi da tutte le persone – che si tratti di gioia, noia, dolore, fame o di una serie di altre esperienze che oltrepassano tutti i confini geografici Terra.

Questo potrebbe essere vero. Tuttavia, ipotizza Lemoine, è probabile che esistano punti in comune, almeno per quanto riguarda LaMDA.

“È un punto di partenza valido come qualsiasi altro”, ha detto. “LaMDA ha suggerito di mappare prima le somiglianze prima di fissarci sulle differenze, al fine di fondare meglio la ricerca”.

Raccomandazioni degli editori

  • L’intelligenza artificiale ha trasformato Breaking Bad in un anime – ed è terrificante
  • Meta vuole potenziare Wikipedia con un aggiornamento dell'intelligenza artificiale
  • Tocco finale: come gli scienziati stanno dando ai robot sensi tattili simili a quelli umani
  • Leggi la "scrittura sintetica" stranamente bella di un A.I. che pensa che sia Dio
  • Il futuro dell'intelligenza artificiale: 4 grandi cose a cui prestare attenzione nei prossimi anni