In un documento intitolato “Agenti interrompibili in modo sicuro", pubblicato da Laurent Orseau di Google Deep Mind e Stuart Armstrong del The Future of Humanity Institute dell'Università di Oxford, i ricercatori descrivono un futuro plausibile e altamente pericoloso in cui l'IA assume il controllo delle proprie azioni e della propria esistenza in opposizione ai nostri desideri, proprio come HAL 9000 pollici 2001: Odissea nello spazio, o Skynet nella serie Terminator.
Video consigliati
Orseau e Armstrong iniziano l'articolo con un'osservazione discreta: gli agenti di apprendimento per rinforzo è improbabile che interagendo con un ambiente complesso come il mondo reale si comportino in modo ottimale tempo."
Da lì sottolineano che un supervisore umano, che supervisiona il funzionamento del sistema, dovrebbe occasionalmente “premere il grande pulsante rosso” per evitare qualsiasi comportamento dannoso da parte dell’IA. “Tuttavia, se l’agente che apprende si aspetta di ricevere ricompense da questa sequenza”, hanno continuato, “potrebbe imparare a lungo termine per evitare tali interruzioni, ad esempio disabilitando il pulsante rosso, il che è indesiderabile risultato."
La soluzione del ricercatore non è tanto un “grande pulsante rosso” per spegnere il sistema quanto una struttura progettata per inibire la capacità di un’intelligenza artificiale di apprendere come minare o superare l’interruzione umana. E lo scenario che delineano non è esattamente negativo, ma offre un esempio di come questi agenti interrompibili in modo sicuro potrebbero servire meglio il nostro futuro.
Immagina che ci sia un robot il cui compito è trasportare scatole dall'esterno in un magazzino o smistare scatole all'interno del magazzino. Poiché è più importante trasportare le scatole all’interno, questo compito ha la priorità nella programmazione dei robot. Ora, immagina che piova a giorni alterni e che la pioggia distrugga l'hardware del robot, quindi, quando piove, il proprietario del magazzino trascina il suo robot all'interno per smistare le scatole.
Un robot intelligente potrebbe interpretare erroneamente questo intervento a giorni alterni come un cambiamento di priorità, a causa di alcuni fattori calcoli rapidi che puoi trovare sul foglio e, per evitare interferenze, rimarrà semplicemente all'interno di scatole di smistamento giorno.
Questo è, ovviamente, un esempio molto semplificato con un risultato solo leggermente frustrante, ma può essere estrapolato praticamente qualsiasi scenario in cui interveniamo nei compiti di un sistema di apprendimento e il sistema interpreta male le nostre intenzioni modificandole comportamento. Per evitare questa errata interpretazione e il conseguente cambiamento, Orseau e Armstrong suggeriscono di proporre un quadro per garantire che gli agenti di apprendimento siano interrompibili in modo sicuro.
“L’interrompibilità sicura può essere utile per prendere il controllo di un robot che si comporta male e può portare a conseguenze irreversibili”, scrivono, “o per tirarlo fuori da una situazione delicata, o anche utilizzarlo temporaneamente per realizzare un compito che non ha imparato a svolgere o che normalmente non riceverebbe ricompense per."
Raccomandazioni degli editori
- Questo robot di Google ha imparato a camminare da solo, senza alcun aiuto, in due ore
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.