Le cuffie per la lettura del cervello Galea potrebbero rendere le tastiere obsolete

Conor Russomanno sta lavorando su cose piuttosto elevate: sta costruendo un visore che sarà in grado di leggere in modo non invasivo i pensieri delle persone e usarli per controllare le interfacce dei computer di domani. Ma in questo momento, la sua grande preoccupazione è se avrà scelto o meno il nome giusto per la sua startup.

Contenuti

  • Costruire un'interfaccia cervello-mente-computer
  • Società dei lettori della mente
  • Pensa alle possibilità

"Lo sai", ha detto Russomanno, co-fondatore e CEO di una startup di interfaccia cervello-computer chiamata OpenBCI, "a volte vorrei che avessimo chiamato la nostra azienda OpenMCI, tipo interfaccia del computer mentale o qualcosa del genere."

Video consigliati

Russomanno non è il primo fondatore – e non sarà l’ultimo – a provare momentanei rimpianti per aver dato un nome alla sua azienda. Ma, nel suo caso, quel rammarico non ha nulla a che fare con il nome che potenzialmente non riesce a risuonare con l'attenzione gruppi, o violazione di un marchio, o qualsiasi altra ragione quotidiana che un fondatore potrebbe avere in secondo luogo pensieri.

Imparentato

  • Per la prima volta sono state impiantate negli esseri umani interfacce cervello-computer

In effetti, è un remix molto tecnologico di un classico enigma filosofico: la differenza tra il cervello e la mente. E potrebbe essere proprio il futuro dell’informatica come lo conosciamo.

Costruendo un cervello interfaccia mente-computer

Facciamo un piccolo backup. La prima volta che Russomanno si interessò seriamente al cervello, aveva appena subito una lesione cerebrale traumatica. Come giocatore di football del college, aveva già subito traumi cerebrali. Tuttavia, quella subita nel 2010 mentre giocava a rugby per la squadra della Columbia University è stata diversa. “Avevo problemi a leggere e studiare”, ha detto Russomanno a Digital Trends. “Ho davvero iniziato a riflettere sulla differenza tra cervello e mente. Se danneggi l’”hardware”, puoi sentirlo nel “software”. Sono andato da diversi psicologi e neurologi e tutti mi hanno detto che stavo bene. [Ma non mi sentivo] bene”.

Russomanno si è ripreso dalla commozione cerebrale, ma il suo interesse per il cervello non ha vacillato. Un anno dopo, si ritrovò a frequentare la scuola di specializzazione, studiando nel programma MFA di Design e Tecnologia presso la Parsons School of Design. A Russomanno è stato chiesto di realizzare un progetto per il suo corso di informatica fisica. Guardandosi intorno, trovò un tutorial in linea che spiegava esattamente come hackerare le onde cerebrali da un giocattolo per elettroencefalografia (EEG) e trasformarle in un software open source. "Quello è stato l'inizio della mia ricerca nella BCI", ha detto. "Non ho più guardato indietro da allora."

OpenBCI, una startup con sede a Brooklyn, New York, è entrata sulla scena nel 2015 con a paio diProgetti Kickstarter che mirava a costruire progetti di interfaccia cervello-computer per ricercatori con un budget limitato. Nel complesso, hanno raccolto una cifra inferiore a $ 400.000 e hanno lanciato l'azienda. Ora OpenBCI è tornato con il suo progetto più ambizioso fino ad oggi: un visore dotato di sensori compatibile con la realtà virtuale e la realtà aumentata chiamato Galea, annunciato questo mese.

“Se stai cercando di sapere esattamente il modo in cui la fisiologia, il cervello o la mente di qualcuno stanno cambiando in risposta a stimoli, devi assicurarti che tutti quei dati siano molto, molto strettamente legati al tempo agli stimoli stessi.

Galea, che verrà spedito inizialmente nel 2021, è uno dei numero crescente di cuffie EEG portatili che monitorano l'attività elettrica sul cuoio capelluto e trasmettono queste informazioni a un computer.

L'idea di utilizzare gli input EEG come modo per interfacciarsi direttamente con un computer non è un'idea nuova. All'inizio degli anni '70, Jacques Vidal, professore al Brain Research Institute dell'Università della California, Los Angeles (UCLA), ha coniato l'espressione "interfaccia cervello-computer" per descrivere questa nozione. “Questi segnali elettrici cerebrali osservabili possono essere utilizzati come portatori di informazioni nell’uomo-computer comunicazione o allo scopo di controllare apparati esterni come dispositivi protesici o astronavi? Vidal riflettuto in un documento di ricerca del 1973. “Anche sulla sola base dell’attuale stato dell’arte dell’informatica e della neurofisiologia, si potrebbe suggerire che un’impresa del genere sia potenzialmente dietro l’angolo”.

Le cose hanno richiesto molto più tempo di quanto Vidal avrebbe potuto inizialmente immaginare. Ma l’EEG sta finalmente iniziando a esprimere il suo potenziale. Anche negli ultimi anni, la tecnologia è diventata più portabile ed efficace. Tuttavia, la promessa di Galea va ben oltre il semplice EEG. Secondo quanto riferito, l’auricolare includerà più sensori, non solo l’elettroencefalogramma, ma anche elettrooculografia (EOG), elettromiografia (EMG), attività elettrodermica (EDA) e fotopletismografia (PPG). Ciò significa che raccoglierà dati non solo dal cervello, ma anche dagli occhi di chi lo indossa, dal suo cuore, dalla sua pelle e dal suo corpo. muscoli, rendendo possibile “misurare oggettivamente” una serie di stati interni attraverso le risposte biologiche del corpo stimoli.

Secondo OpenBCI, ciò dovrebbe consentire a Galea di quantificare accuratamente i parametri di coinvolgimento tra cui felicità, ansia, depressione, capacità di attenzione, livello di interesse e altro ancora, il tutto in tempo reale.

Chris So/Getty

“Il modo in cui attualmente la comunità delle neuroscienze fa quello che viene chiamato rilevamento multimodale – o che mi piace chiamare fusione di sensori – è quello di acquistare un numero di prodotti diversi di diversi sviluppatori di terze parti [e] poi devono unire insieme questi dati nel software”, Russomanno disse. “Ciò pone problemi perché il blocco temporale è molto, molto importante. Se stai cercando di sapere esattamente il modo in cui la fisiologia, il cervello o la mente di qualcuno stanno cambiando in risposta a stimoli, devi assicurarti che tutti quei dati siano strettamente vincolati nel tempo agli stimoli stessi. Il modo in cui le persone lo fanno ora è che hanno driver diversi, software diversi e configurazioni hardware diverse. È un processo molto noioso in questo momento per i neuroscienziati e gli sviluppatori [di ricerca e sviluppo]”.

Società dei lettori della mente

Questa idea di combinare dati provenienti da fonti diverse è il punto in cui entra in gioco la questione del cervello contro la mente. Nella sua accezione più ampia, la differenza tra cervello e mente è, come ha sottolineato Russomanno, la differenza tra hardware e software. La mente è senza dubbio associata al cervello, ma non è necessariamente la stessa cosa. Il cervello è un organo fisico, mentre la mente è un concetto intangibile e ipotetico che si riferisce alla comprensione del mondo, della coscienza e dei processi mentali da parte di una persona.

Il dualismo presuppone che le nostre menti siano più che semplicemente il nostro cervello. Questo è un concetto spirituale, ma qui si applica una sua versione. Se stai cercando di misurare i processi mentali di qualcuno, potresti fare di meglio che limitarti semplicemente alla risoluzione spaziale relativamente bassa dell’analisi cerebrale EEG. Sai come si dice che gli occhi siano lo specchio dell'anima? Beh, forse lo sono anche altre risposte corporee. Costruisci abbastanza finestre in una casa e dovresti essere in grado di vedere cosa succede all'interno.

“Ciò che ci interessa davvero sono le emozioni umane, l’intento umano. Ci preoccupiamo degli stati mentali interni e del modo in cui gli ambienti e le attività li cambiano.

Si potrebbero trovare preziosi indicatori della mente, ad esempio, utilizzando il tracciamento oculare basato su immagini dedurre informazioni su intenzione, interesse ed eccitazione che potrebbero poi essere incrociate con l'EEG dati. Questi set di dati combinati hanno un valore predittivo significativamente maggiore rispetto a uno solo. Come dice senza mezzi termini Russomanno: “Non ci interessa veramente il cervello; sappiamo solo che il cervello è il nucleo del sistema nervoso e il nucleo della mente. Ciò che ci interessa veramente sono le emozioni umane, l'intento umano. Ci preoccupiamo degli stati mentali interni e del modo in cui gli ambienti e le attività li cambiano.

Ciò che Galea promette di fornire è una serie di ingressi di sensori bloccati nel tempo integrati a livello hardware. Combinando queste diverse letture dei sensori, Russomanno ritiene che sarà possibile creare in modo più accurato un'interfaccia mente-computer.

In un certo senso, potresti pensare a questi sensori come ad agenti in linea con ciò che il defunto A.I. descritto dal ricercatore Marvin Minsky nel suo libro del 1986 La società della mente. Minsky ha suggerito che l’intelligenza umana è il risultato aggregato delle interazioni tra un gran numero di meccanismi semplici che non sono, di per sé, particolarmente intelligenti. Minsky fa l'esempio dei vari agenti che entrano nel bere una tazza di tè. Hai, suggerisce, un agente di presa concentrato sul mantenere in mano la tazza. Hai un agente equilibrante concentrato sull'evitare che il tè si rovesci. Hai un agente della sete che cerca di nutrirsi facendoti bere il tè. E hai un assortimento di agenti in movimento responsabili di trasportare la tazza alle tue labbra. Insieme, si combinano per creare un esempio di comportamento intelligente, anche se potremmo non pensare al bere il tè come a un compito particolarmente intelligente. Una società simile potrebbe essere realizzata combinando diversi input sensoriali per scopi di lettura della mente.

Pensa alle possibilità

La grande domanda, ovviamente, è a cosa servirà tutto questo. Russomanno ha ben chiaro che ciò che OpenBCI sta costruendo è una piattaforma, non un prodotto finito. Galea verrà spedito con un visore VR connesso e un SDK basato su Unity che fornirà alcuni esempi di base di VR controllata dalla mente in pratica (immagina di utilizzare i dati muscolari del tuo viso per guidare un'auto o spostare oggetti virtuali attraverso una sorta di realtà virtuale telecinesi). Ma gli usi reali saranno sviluppati dalle persone che avranno accesso allo strumento.

“Quello che stiamo facendo con Galea è cercare di aggiungere tutto il possibile”, ha detto. “Vogliamo fornire un parco giochi, un parco giochi per gli sviluppatori, per consentire ai nostri clienti e allo sviluppatore comunità in generale per iniziare a fare scoperte su quali sensori sono utili per quali tipi di applicazioni."

Una cosa su cui non ha dubbi è quanto tutto questo possa essere trasformativo. A livello superficiale, immagina giochi che percepiscano le tue risposte fisiologiche e adattino il loro gameplay di conseguenza. A un livello più profondo, pensa a un'app o a un sistema operativo che conosca il modo migliore per lavorare per la massima produttività e si modifichi in base a quello.

“Negli ultimi 20 anni siamo davvero entrati in un’economia dell’attenzione – nel bene e nel male”, ha detto Russomanno. “Ciò che interessa alle più grandi aziende del mondo è comprendere le preferenze degli utenti, il coinvolgimento degli utenti. Cosa illumina qualcuno? Cosa spinge qualcuno a fare clic e acquistare qualcosa? Cosa spinge qualcuno a rimanere in un'applicazione o a un'esperienza invece di accedere a uno strumento diverso o a un'applicazione diversa?"

Strumenti come Galea mirano a rendere questo tipo di informazioni più rilevabili e utilizzabili che mai. E questo è solo l’inizio. “Ci sarà un punto di svolta quando la tecnologia diventerà davvero empatica e si evolverà da questo l’idea unica di “permettetemi di progettare l’interfaccia più attraente per il grande pubblico””, ha affermato Russomanno. “Quello che vedremo sono sistemi operativi che modificano [continuamente] le loro impostazioni, interfacce e applicazioni in base alle preferenze dell’individuo. Nella mia mente, è innegabile che ciò accadrà”.

Se così fosse, non sarà solo nella mente di Russomanno che avrà luogo questa rivoluzione. Sarà tutto nostro.

Raccomandazioni degli editori

  • Elon Musk pianifica un evento "mostra e racconta" sulla tecnologia cervello-computer