Conor Russomanno jobber med noen ganske høye ting: Han bygger et hodesett som vil være i stand til å ikke-invasivt lese folks tanker og bruke dem til å kontrollere morgendagens datamaskingrensesnitt. Men akkurat nå er hans store bekymring om han valgte riktig navn for oppstarten sin.
Innhold
- Bygge et hjerne-sinn-datamaskin-grensesnitt
- Samfunnet av tankelesere
- Tenk på mulighetene
"Du vet," sa Russomanno, medgründer og administrerende direktør for en oppstart av hjerne-datamaskingrensesnitt kalt OpenBCI, "noen ganger skulle jeg ønske at vi hadde kalt selskapet vårt OpenMCI - som, tenke på datamaskingrensesnitt eller noe sånt."
Anbefalte videoer
Russomanno er ikke den første grunnleggeren – og vil ikke være den siste – som opplever et øyeblikk av anger over å navngi selskapet sitt. Men i hans tilfelle har den beklagelsen ingenting å gjøre med at navnet potensielt ikke får resonans med fokus grupper, eller krenking av et varemerke, eller noen av de andre hverdagslige årsakene en grunnlegger kan ha andre tanker.
I slekt
- Hjerne-datamaskin-grensesnitt har blitt implantert i mennesker for første gang
Faktisk er det en veldig teknisk industriremiks av en klassisk filosofisk gåte: Forskjellen mellom hjernen og sinnet. Og det kan bare være fremtiden for databehandling slik vi kjenner den.
Bygge a hjerne sinn-datamaskin-grensesnitt
La oss sikkerhetskopiere litt. Første gang Russomanno ble seriøst interessert i hjernen, hadde han nettopp fått en traumatisk hjerneskade. Som college-fotballspiller hadde han fått hjernerystelse før. Men den han led i 2010 mens han spilte rugby for Columbia Universitys klubblag var annerledes. "Jeg hadde problemer med å lese og studere," sa Russomanno til Digital Trends. "Jeg begynte virkelig å tenke på forskjellen mellom hjerne og sinn. Hvis du skader 'maskinvaren', kan du føle det i 'programvaren'. Jeg gikk til en rekke psykologer og nevrologer, og de fortalte meg alle at jeg hadde det bra. [Men jeg følte meg ikke bra.»
Russomanno kom seg etter hjernerystelsen, men interessen for hjernen vaklet ikke. Et år senere befant han seg på forskerskolen og studerte i Design and Technology MFA-programmet ved Parsons School of Design. Russomanno ble bedt om å bygge et prosjekt for sin fysiske databehandlingsklasse. Da han så seg rundt, fant han en online opplæring som la ut nøyaktig hvordan man hacker hjernebølger ut av et elektroencefalografi (EEG) leketøy og inn i åpen kildekode-programvare. "Det var begynnelsen på min jakt på BCI," sa han. "Har ikke sett tilbake siden."
OpenBCI, en oppstart basert i Brooklyn, New York, brøt inn på scenen i 2015 med en et parKickstarter-prosjekter som hadde som mål å bygge hjerne-datamaskin-grensesnittprosjekter for forskere på et budsjett. Mellom dem samlet de en nyanse under $400 000 og lanserte selskapet. Nå er OpenBCI tilbake med sitt mest ambisiøse prosjekt til dags dato: Et virtuell virkelighet- og utvidet virkelighet-kompatibelt, sensorbesatt headset kalt Galea, annonsert denne måneden.
"Hvis du prøver å vite nøyaktig hvordan noens fysiologi eller hjerne eller sinn endrer seg som svar på stimuli, må du sørge for at alle disse dataene er veldig, veldig tett tidslåst til selve stimuli."
Galea, som først vil sendes en gang i 2021, er en av en voksende nummer av bærbare EEG-headset som overvåker elektrisk aktivitet i hodebunnen og videresender denne informasjonen til en datamaskin.
Ideen om å bruke EEG-inndata som en måte å koble direkte til en datamaskin på er ikke en ny idé. På begynnelsen av 1970-tallet, Jacques Vidal, en professor ved Brain Research Institute ved University of California, Los Angeles (UCLA), laget uttrykket "hjerne-datamaskin-grensesnitt" for å beskrive denne forestillingen. "Kan disse observerbare elektriske hjernesignalene settes i verk som bærere av informasjon i menneske-datamaskin kommunikasjon eller med det formål å kontrollere slike eksterne apparater som proteser eller romskip?» Vidal tenkt på i en forskningsartikkel fra 1973. "Selv på det eneste grunnlaget for de nåværende tilstandene innen informatikk og nevrofysiologi, kan man antyde at en slik bragd potensielt er rundt hjørnet."
Ting har tatt atskillig lengre tid enn Vidal i utgangspunktet hadde anet. Men EEG begynner endelig å leve opp til potensialet sitt. Selv de siste årene har teknologien blitt mer bærbar og effektiv. Løftet om Galea handler imidlertid om mer enn bare EEG. Hodesettet vil angivelig inneholde flere sensorer - ikke bare elektroencefalogram, men også elektrookulografi (EOG), elektromyografi (EMG), elektrodermal aktivitet (EDA), og fotopletysmografi (PPG). Dette betyr at den vil samle data fra ikke bare hjernen, men også brukerens øyne, deres hjerte, deres hud og deres muskler, noe som gjør det mulig å "objektivt måle" en rekke indre tilstander via kroppens biologiske responser på stimuli.
I følge OpenBCI skal dette tillate Galea å nøyaktig kvantifisere engasjementmålinger inkludert lykke, angst, depresjon, oppmerksomhetsspenn, interessenivå og mer – alt i sanntid.
"Måten nevrovitenskapsmiljøet for tiden gjør det som kalles multimodal sensing - eller jeg liker å kalle sensorfusjon - er at de kjøper en antall forskjellige produkter fra forskjellige tredjepartsutviklere [og] må deretter sette sammen disse dataene i programvare,» Russomanno sa. "Dette byr på problemer fordi tidslåsing er veldig, veldig viktig. Hvis du prøver å vite nøyaktig hvordan noens fysiologi eller hjerne eller sinn endrer seg som svar på stimuli, må du sørge for at alle disse dataene er veldig, veldig tett tidslåst til selve stimuli. Måten folk gjør dette på nå, er at de har forskjellige drivere, annen programvare og forskjellige maskinvareoppsett. Det er en veldig kjedelig prosess akkurat nå for nevrovitenskapsmenn og utviklere av [forskning og utvikling.»
Samfunnet av tankelesere
Denne ideen om å kombinere data fra forskjellige kilder er der spørsmålet om hjerne-mot-sinn kommer inn i bildet. På det løseste er forskjellen mellom hjernen og sinnet, som Russomanno påpekte, forskjellen mellom maskinvare og programvare. Sinnet er utvilsomt assosiert med hjernen, men det er ikke nødvendigvis det samme. Hjernen er et fysisk organ, mens sinnet er et uhåndgripelig, hypotetisk konsept som er relatert til en persons forståelse av verden, bevissthet og tankeprosesser.
Dualisme antyder at sinnet vårt er mer enn bare hjernen vår. Dette er et spirituelt konsept, men en versjon av det gjelder her. Hvis du prøver å måle noens tankeprosesser, kan du gjøre det bedre enn å bare begrense deg til den relativt lave romlige oppløsningen til EEG-hjerneanalyse. Du vet hvordan de sier at øynene er vinduene til sjelen? Vel, kanskje andre kroppslige reaksjoner er det også. Bygg nok vinduer i et hus, og du bør kunne se hva som skjer inni.
«Det vi virkelig bryr oss om er menneskelige følelser, menneskelig hensikt. Vi bryr oss om indre sinnstilstander og måten miljøer og aktiviteter endrer det på.»
Verdifulle indikatorer på sinnet kan bli funnet ved for eksempel å bruke bildebasert øyesporing til utlede informasjon om hensikt, interesse og opphisselse som deretter kan kryssreferanser med EEG data. Disse kombinerte datasettene har betydelig større prediktiv verdi enn bare ett alene. Som Russomanno rett ut sier det: «We don't really care about the brain; vi bare vet at hjernen er kjernen i nervesystemet og kjernen i sinnet. Det vi virkelig bryr oss om er menneskelige følelser, menneskelig hensikt. Vi bryr oss om indre sinnstilstander og måten miljøer og aktiviteter endrer det på.»
Det Galea lover å gi er en tidslåst rekke sensorinnganger integrert på maskinvarenivå. Ved å kombinere disse forskjellige sensoravlesningene, tror Russomanno at det vil være mulig å skape et tanke-datamaskin-grensesnitt mer nøyaktig.
På en måte kan du tenke på disse sensorene som agenter i tråd med det avdøde A.I. forsker Marvin Minsky beskrev i sin bok fra 1986 The Society of Mind. Minsky antydet at menneskelig intelligens er det samlede resultatet av interaksjoner mellom et stort antall enkle mekanismer som ikke i seg selv er spesielt intelligente. Minsky gir eksemplet med de ulike agentene som går inn i å drikke en kopp te. Du har, foreslår han, et gripemiddel som fokuserer på å holde på koppen. Du har et balansemiddel som er fokusert på å forhindre at teen renner. Du har en tørstemiddel som prøver å få næring ved å få deg til å drikke teen. Og du har et utvalg av bevegelige agenter som er ansvarlige for å formidle koppen til leppene dine. Sammen skaper de et eksempel på intelligent oppførsel - selv om vi kanskje ikke tenker på tedrikking som en spesielt intelligent oppgave. Et lignende samfunn kan oppnås ved å kombinere forskjellige sensorinnganger for tankelesingsformål.
Tenk på mulighetene
Det store spørsmålet er selvfølgelig hva alt dette skal brukes til. Russomanno er tydelig på at det OpenBCI bygger er en plattform, ikke et ferdig produkt. Galea leveres med et tilkoblet VR-headset og en Unity-basert SDK som vil gi noen grunnleggende eksempler på tankekontrollert VR i praksis (tenk deg å bruke muskeldata fra ansiktet ditt for å kjøre bil eller flytte virtuelle objekter gjennom en type VR telekinese). Men de reelle bruksområdene vil bli utviklet av menneskene som får tilgang til verktøyet.
"Det vi gjør med Galea er å prøve å kaste inn alle klokkene og fløyter vi kan," sa han. "Vi ønsker å tilby en lekeplass, en utviklerlekeplass, for å tillate våre kunder og utvikleren fellesskapet for å begynne å gjøre oppdagelser om hvilke sensorer som er nyttige for hvilke typer applikasjoner."
En ting han ikke er i tvil om er hvor transformativt alt dette kan være. På den grunne enden kan du forestille deg spill som registrerer de fysiologiske responsene dine og justerer gameplayet deretter. På et mer dyptgående nivå, tenk på en app eller et operativsystem som vet den beste måten for deg å jobbe for maksimal produktivitet og endrer seg selv basert på det.
"I løpet av de siste 20 årene har vi virkelig gått inn i en oppmerksomhetsøkonomi - på godt og vondt," sa Russomanno. «Det de største selskapene i verden bryr seg om er å forstå brukerpreferanser, brukerengasjement. Hva lyser noen opp? Hva får noen til å ønske å klikke og kjøpe noe? Hva får noen til å ønske å bli i en applikasjon eller opplevelse i motsetning til å logge på et annet verktøy eller en annen applikasjon?"
Verktøy som Galea tar sikte på å gjøre denne typen informasjon mer synlig og handlingsbar enn noen gang. Og det er bare begynnelsen. "Det kommer til å være [en gamechanger] når teknologien virkelig blir empatisk og utvikler seg fra dette ideen om "la meg designe det mest attraktive grensesnittet for allmennheten," sa Russomanno. "Det vi kommer til å se er operativsystemer som [kontinuerlig] tilpasser innstillingene og grensesnittene og applikasjonene til den enkeltes preferanser. I mitt sinn er det ubestridelig at dette kommer til å skje."
Hvis den gjør det, vil det ikke bare være Russomannos sinn at denne revolusjonen finner sted i. Det blir alle våre.
Redaktørenes anbefalinger
- Elon Musk planlegger «vis og fortell»-arrangement om hjerne-datamaskinteknologi