Chiamatela ipotesi Skynet, Intelligenza Generale Artificiale o avvento della Singolarità: da anni esperti di intelligenza artificiale e anche i non esperti si sono preoccupati (e, per un piccolo gruppo, hanno celebrato) l’idea che un giorno l’intelligenza artificiale possa diventare più intelligente rispetto agli umani.
Secondo la teoria, i progressi nell’intelligenza artificiale, in particolare del tipo di apprendimento automatico, sono in grado di affrontare nuove sfide informazioni e riscrivere il suo codice di conseguenza – alla fine raggiungerà il wetware del biologico cervello. In questa interpretazione degli eventi, ogni intelligenza artificiale avanza da Pericolo-macchine IBM vincenti al massiccio modello linguistico AI GPT-3 sta portando l’umanità un passo avanti verso una minaccia esistenziale. Stiamo letteralmente costruendo il nostro successori che presto diventeranno senzienti.
Video consigliati
Solo che non accadrà mai. Almeno secondo gli autori del nuovo libro Perché le macchine non domineranno mai il mondo: intelligenza artificiale senza paura.
Coautori Professore di filosofia dell'Università di Buffalo Barry Smith E Jobst Landgrebe, fondatore della società tedesca di intelligenza artificiale Cognotekt, sostiene che l'intelligenza umana non sarà superata da "un dittatore immortale" tanto presto, né mai. Loro dissero Tendenze digitali le loro ragioni.
Digital Trends (DT): come è arrivato questo argomento sul tuo radar?
Jobst Landgrebe (JL): Sono un medico e biochimico di formazione. Quando ho iniziato la mia carriera, ho fatto esperimenti che hanno generato molti dati. Ho iniziato a studiare matematica per poter interpretare questi dati e ho visto quanto sia difficile modellare i sistemi biologici utilizzando la matematica. C'è sempre stato questo disadattamento tra i metodi matematici e i dati biologici.
A metà degli anni trenta ho lasciato il mondo accademico e sono diventato un consulente aziendale e un imprenditore che lavorava nei sistemi software di intelligenza artificiale. Stavo cercando di costruire sistemi di intelligenza artificiale per imitare ciò che possono fare gli esseri umani. Mi sono reso conto che stavo riscontrando lo stesso problema che avevo avuto anni prima in biologia.
I clienti mi hanno detto: “perché non costruisci chatbot?”. Ho detto: “perché non funzioneranno; non possiamo modellare adeguatamente questo tipo di sistema”. Ciò alla fine mi ha portato a scrivere questo libro.
Professor Barry Smith (BS): Ho pensato che fosse un problema molto interessante. Avevo già sentore di problemi simili con l’intelligenza artificiale, ma non ci avevo mai pensato a fondo. Inizialmente, abbiamo scritto un articolo intitolato "Rendere nuovamente significativa l’intelligenza artificiale.’ (Era nell’era Trump.) Riguardava il motivo per cui le reti neurali falliscono nella modellazione del linguaggio. Quindi abbiamo deciso di espandere l’articolo in un libro che esplorasse questo argomento più profondamente.
DT: Il tuo libro esprime scetticismo sul modo in cui le reti neurali, cruciali per il moderno deep learning, emulano il cervello umano. Sono approssimazioni, piuttosto che modelli accurati di come funziona il cervello biologico. Ma accetti la premessa fondamentale secondo cui è possibile che ciò avvenga se comprendessimo il cervello in modo granulare abbastanza dettagliato, potrebbe essere replicato artificialmente – e che ciò darebbe origine all’intelligenza o sensibilità?
JL: Il nome “rete neurale” è un termine completamente improprio. Le reti neurali di cui disponiamo oggi, anche quelle più sofisticate, non hanno nulla a che fare con il modo in cui funziona il cervello. L’idea che il cervello sia un insieme di nodi interconnessi nello stesso modo in cui sono costruite le reti neurali è completamente ingenua.
Se guardiamo la cellula batterica più primitiva, ancora non capiamo nemmeno come funzioni. Ne comprendiamo alcuni aspetti, ma non abbiamo un modello di come funzioni, per non parlare di un neurone, che è molto più complicato, o di miliardi di neuroni interconnessi. Credo che sia scientificamente impossibile per capire come funziona il cervello. Possiamo comprendere solo alcuni aspetti e affrontarli. Non abbiamo, e non otterremo, una comprensione completa di come funziona il cervello.
Se avessimo una comprensione perfetta di come funziona ogni molecola del cervello, probabilmente potremmo replicarla. Ciò significherebbe mettere tutto in equazioni matematiche. Quindi potresti replicarlo usando un computer. Il problema è proprio che non siamo in grado di scrivere e creare quelle equazioni.
BS: Molte delle cose più interessanti del mondo stanno accadendo a livelli di granularità a cui non possiamo avvicinarci. Semplicemente non abbiamo l’attrezzatura per l’imaging, e probabilmente non l’avremo mai, per catturare la maggior parte di ciò che accade ai livelli più fini del cervello.
Ciò significa che non sappiamo, ad esempio, cosa sia responsabile della coscienza. Esistono, infatti, una serie di problemi filosofici piuttosto interessanti che, secondo il metodo che stiamo seguendo, saranno sempre irrisolvibili – e quindi dovremmo semplicemente ignorarli.
Un altro è la libertà della volontà. Siamo fortemente favorevoli all'idea che gli esseri umani abbiano una volontà; possiamo avere intenzioni, obiettivi e così via. Ma non sappiamo se si tratti o meno di libero arbitrio. Questo è un problema che ha a che fare con la fisica del cervello. Per quanto riguarda le prove a nostra disposizione, i computer non possono avere una volontà.
DT: Il sottotitolo del libro è “intelligenza artificiale senza paura”. Qual è la paura specifica a cui ti riferisci?
BS: Ciò è stato provocato dalla letteratura sulla singolarità, che so che conosci. Nick Bostrom, David Chalmers, Elon Musk e simili. Quando abbiamo parlato con i nostri colleghi nel mondo reale, ci è diventato chiaro che esisteva effettivamente un una certa paura tra la popolazione che l’intelligenza artificiale alla fine prenderebbe il sopravvento e cambierebbe il mondo a scapito di umani.
Nel libro abbiamo molto sugli argomenti di tipo Bostrum. L’argomento principale contro di loro è che se la macchina non può avere una volontà, allora non può nemmeno avere una volontà malvagia. Senza una volontà malvagia, non c’è nulla di cui aver paura. Ora, naturalmente, possiamo ancora avere paura delle macchine, così come possiamo avere paura delle armi da fuoco.
Ma questo accade perché le macchine sono gestite da persone con fini malvagi. Ma allora non è l’intelligenza artificiale ad essere malvagia; sono le persone che costruiscono e programmano l’intelligenza artificiale
DT: Perché questa nozione di singolarità o di intelligenza artificiale generale interessa così tanto alle persone? Che ne siano spaventati o affascinati, c'è qualcosa in questa idea che risuona con le persone ad ampio livello.
JL: C’è questa idea, iniziata all’inizio del XIX secolo e poi dichiarata da Nietzsche alla fine di quel secolo, che Dio è morto. Poiché le élite della nostra società non sono più cristiane, avevano bisogno di un sostituto. Max Stirner, che fu, come Karl Marx, un allievo di Hegel, scrisse un libro su questo argomento, dicendo: “Io sono il mio Dio”.
Se sei Dio, vuoi essere anche un creatore. Se potessi creare una superintelligenza allora saresti come Dio. Penso che abbia a che fare con le tendenze ipernarcisistiche della nostra cultura. Non ne parliamo nel libro, ma questo mi spiega perché questa idea è così attraente nei nostri tempi in cui non esiste più un’entità trascendente a cui rivolgersi.
DT: Interessante. Quindi, per proseguire, è l’idea che la creazione dell’intelligenza artificiale – o l’obiettivo di creare l’intelligenza artificiale – sia un atto narcisistico. In tal caso, il concetto che queste creazioni diventerebbero in qualche modo più potenti di noi è una svolta da incubo. È il bambino che uccide il genitore.
JL: Un po' così, sì.
DT: Quale sarebbe per te il risultato finale del tuo libro se tutti fossero convinti dalle tue argomentazioni? Cosa significherebbe per il futuro dello sviluppo dell’intelligenza artificiale?
JL: È un'ottima domanda. Posso dirti esattamente cosa penso che accadrebbe – e accadrà. Penso che nel medio termine le persone accetteranno le nostre argomentazioni, e questo creerà una matematica meglio applicata.
Qualcosa di cui tutti i grandi matematici e fisici sono completamente consapevoli sono i limiti di ciò che potrebbero ottenere matematicamente. Poiché ne sono consapevoli, si concentrano solo su determinati problemi. Se sei ben consapevole dei limiti, allora vai in giro per il mondo, cerchi questi problemi e li risolvi. È così che Einstein trovò le equazioni per il moto browniano; come ha elaborato le sue teorie della relatività; come Planck risolse la radiazione del corpo nero e così diede inizio alla teoria quantistica della materia. Avevano un buon istinto per individuare i problemi che potevano essere risolti con la matematica e quali no.
Se le persone comprendono il messaggio del nostro libro, crediamo che saranno in grado di progettare sistemi migliori, perché lo fanno si concentrerà su ciò che è veramente fattibile e smetterà di sprecare denaro e sforzi per qualcosa che non può essere raggiunto.
BS: Penso che parte del messaggio sia già arrivato, non per quello che diciamo ma per quello esperienze che le persone hanno quando donano ingenti somme di denaro a progetti di intelligenza artificiale, e poi i progetti di intelligenza artificiale falliscono. Immagino che tu conosca il Centro congiunto di intelligenza artificiale. Non ricordo la somma esatta, ma credo che fosse qualcosa come 10 miliardi di dollari, dati ad un famoso imprenditore. Alla fine non ne hanno ricavato nulla. Hanno annullato il contratto.
(Nota del redattore: JAIC, una suddivisione delle forze armate degli Stati Uniti, aveva lo scopo di accelerare la “fornitura e l’adozione dell’intelligenza artificiale per ottenere l’impatto della missione su larga scala." Nel giugno di quest’anno è stato trasformato in un’organizzazione unificata più grande, il Chief Digital and Artificial Intelligence Officer, con altri due uffici. JAIC ha cessato di esistere come entità propria.)
DT: Quale pensi sia, in termini generali, l'argomentazione più convincente che fai nel libro?
BS: Ogni sistema di intelligenza artificiale è di natura matematica. Poiché non possiamo modellare matematicamente la coscienza, la volontà o l’intelligenza, queste non possono essere emulate utilizzando le macchine. Pertanto, le macchine non diventeranno intelligenti, tanto meno superintelligenti.
JL: La struttura del nostro cervello consente solo modelli limitati della natura. In fisica, scegliamo un sottoinsieme della realtà che si adatta alle nostre capacità di modellazione matematica. È così che Newton, Maxwell, Einstein o Schrödinger hanno ottenuto i loro famosi e bellissimi modelli. Ma questi possono descrivere o prevedere solo un piccolo insieme di sistemi. I nostri migliori modelli sono quelli che usiamo per progettare la tecnologia. Non siamo in grado di creare un modello matematico completo della natura animata.
Questa intervista è stata modificata per motivi di lunghezza e chiarezza.
Raccomandazioni degli editori
- Gli autori più importanti richiedono un pagamento alle aziende di intelligenza artificiale per l’utilizzo del loro lavoro
- Bing Chat combatte contro i divieti sull'intelligenza artificiale sul posto di lavoro
- Google Bard ora può parlare, ma può soffocare ChatGPT?
- La nuova società di intelligenza artificiale di Elon Musk mira a “comprendere l’universo”
- La crescita record di ChatGPT è stata appena detronizzata da una nuova app virale