Conor Russomanno está trabalhando em algo bastante grandioso: ele está construindo um fone de ouvido que será capaz de ler de forma não invasiva os pensamentos das pessoas e usá-los para controlar as interfaces dos computadores de amanhã. Mas agora, sua grande preocupação é se escolheu ou não o nome certo para sua startup.
Conteúdo
- Construindo uma interface cérebro-mente-computador
- Sociedade de leitores de mentes
- Pense nas possibilidades
“Você sabe”, disse Russomanno, cofundador e CEO de uma startup de interface cérebro-computador chamada OpenBCI, “às vezes eu gostaria que tivéssemos chamado nossa empresa de OpenMCI – tipo, interface de computador mental ou algo parecido.”
Vídeos recomendados
Russomanno não é o primeiro fundador – e não será o último – a sentir uma pontada momentânea de arrependimento ao nomear sua empresa. Mas, no caso dele, esse arrependimento não tem nada a ver com o nome potencialmente não conseguir ressoar com o foco grupos, ou infringir uma marca registrada, ou qualquer outro motivo cotidiano que um fundador possa ter em segundo plano pensamentos.
Relacionado
- Interfaces cérebro-computador foram implantadas em humanos pela primeira vez
Na verdade, é um remix da indústria tecnológica de um enigma filosófico clássico: a diferença entre o cérebro e a mente. E pode ser apenas o futuro da computação como a conhecemos.
Construindo um cérebro interface mente-computador
Vamos recuar um pouco. A primeira vez que Russomanno se interessou seriamente pelo cérebro, ele acabara de sofrer uma lesão cerebral traumática. Como jogador de futebol universitário, ele já havia sofrido concussões antes. No entanto, o que ele sofreu em 2010 enquanto jogava rúgbi no time do clube da Universidade de Columbia foi diferente. “Eu estava tendo problemas para ler e estudar”, disse Russomanno ao Digital Trends. “Eu realmente comecei a refletir sobre a diferença entre cérebro e mente. Se você danificar o ‘hardware’, poderá sentir isso no ‘software’. Procurei vários psicólogos e neurologistas e todos me disseram que eu estava bem. [Mas eu não] me senti bem.”
Russomanno se recuperou da concussão, mas seu interesse pelo cérebro não diminuiu. Um ano depois, ele estava na pós-graduação, estudando no programa MFA de Design e Tecnologia na Parsons School of Design. Russomanno foi convidado a construir um projeto para sua aula de computação física. Olhando ao redor, ele encontrou um tutorial on-line que expôs exatamente como hackear ondas cerebrais de um brinquedo de eletroencefalografia (EEG) e transformá-las em software de código aberto. “Esse foi o início da minha busca pelo BCI”, disse ele. “Não olhei para trás desde então.”
OpenBCI, uma startup com sede no Brooklyn, Nova York, entrou em cena em 2015 com um par deProjetos Kickstarter que visava construir projetos de interface cérebro-computador para pesquisadores com orçamento limitado. Entre eles, eles arrecadaram pouco menos de US$ 400.000 e lançaram a empresa. Agora o OpenBCI está de volta com seu projeto mais ambicioso até o momento: um headset repleto de sensores, compatível com realidade virtual e realidade aumentada, chamado Galea, anunciado este mês.
“Se você está tentando saber exatamente como a fisiologia, o cérebro ou a mente de alguém está mudando em resposta a estímulos, você tem que ter certeza de que todos esses dados estão muito, muito fortemente vinculados ao próprio estímulo.
Galea, que será lançado inicialmente em 2021, é um dos número crescente de fones de ouvido EEG portáteis que monitoram a atividade elétrica no couro cabeludo e transmitem essas informações para um computador.
A ideia de usar entradas de EEG como forma de interface direta com um computador não é uma ideia nova. No início da década de 1970, Jaques Vidal, professor do Brain Research Institute da Universidade da Califórnia, Los Angeles (UCLA), cunhou a frase “interface cérebro-computador” para descrever essa noção. “Será que esses sinais elétricos cerebrais observáveis podem ser colocados para funcionar como portadores de informações em sistemas homem-computador? comunicação ou com a finalidade de controlar aparelhos externos como dispositivos protéticos ou naves espaciais?” Vidal ponderado em um artigo de pesquisa de 1973. “Mesmo com base apenas no estado atual da arte da ciência da computação e da neurofisiologia, pode-se sugerir que tal feito está potencialmente próximo.”
As coisas levaram muito mais tempo do que Vidal poderia inicialmente imaginar. Mas o EEG está finalmente começando a atingir seu potencial. Mesmo nos últimos anos, a tecnologia tornou-se mais portátil e eficaz. No entanto, a promessa de Galea é mais do que apenas EEG. O fone de ouvido incluirá vários sensores – não apenas eletroencefalograma, mas também eletrooculografia (EOG), eletromiografia (EMG), atividade eletrodérmica (EDA) e fotopletismografia (PPG). Isso significa que ele coletará dados não apenas do cérebro, mas também dos olhos, do coração, da pele e do corpo do usuário. músculos, tornando possível “medir objetivamente” uma série de estados internos através das respostas biológicas do corpo a estímulos.
De acordo com o OpenBCI, isso deve permitir que Galea quantifique com precisão as métricas de engajamento, incluindo felicidade, ansiedade, depressão, capacidade de atenção, nível de interesse e muito mais – tudo em tempo real.
“A maneira como a comunidade da neurociência faz atualmente o que é chamado de detecção multimodal – ou gosto de chamar de fusão de sensores – é comprar um vários produtos diferentes de diferentes desenvolvedores terceirizados [e] então tem que juntar esses dados em software”, Russomanno disse. “Isso representa problemas porque o bloqueio de tempo é muito, muito importante. Se você está tentando saber exatamente como a fisiologia, o cérebro ou a mente de alguém está mudando em resposta a estímulos, você precisa ter certeza de que todos esses dados estão muito, muito fortemente vinculados ao próprio estímulo. A maneira como as pessoas fazem isso agora é com drivers diferentes, softwares diferentes e configurações de hardware diferentes. É um processo muito tedioso agora para neurocientistas e desenvolvedores [de pesquisa e desenvolvimento].”
Sociedade de leitores de mentes
É nesta ideia de combinar dados de diferentes fontes que entra em jogo a questão do cérebro versus mente. Em sua forma mais ampla, a diferença entre o cérebro e a mente é, como apontou Russomanno, a diferença entre hardware e software. A mente está, sem dúvida, associada ao cérebro, mas não é necessariamente a mesma coisa. O cérebro é um órgão físico, enquanto a mente é um conceito intangível e hipotético que se relaciona com a compreensão do mundo, da consciência e dos processos de pensamento de uma pessoa.
O dualismo postula que nossas mentes são mais do que simplesmente nossos cérebros. Este é um conceito espiritual, mas uma versão dele se aplica aqui. Se você está tentando medir os processos de pensamento de alguém, você poderia fazer melhor do que simplesmente limitar-se à resolução espacial comparativamente baixa da análise cerebral do EEG. Você sabe como dizem que os olhos são as janelas da alma? Bem, talvez outras respostas corporais também sejam. Construa janelas suficientes em uma casa e você poderá ver o que está acontecendo lá dentro.
“O que realmente nos importa é a emoção humana, a intenção humana. Nós nos preocupamos com os estados de espírito internos e com a maneira como os ambientes e as atividades mudam isso.”
Indicadores valiosos da mente poderiam ser encontrados, por exemplo, usando o rastreamento ocular baseado em imagens para inferir informações sobre intenção, interesse e excitação que poderiam então ser cruzadas com EEG dados. Esses conjuntos de dados combinados têm um valor preditivo significativamente maior do que apenas um por si só. Como diz Russomanno sem rodeios: “Não nos importamos realmente com o cérebro; sabemos apenas que o cérebro é o núcleo do sistema nervoso e o núcleo da mente. O que realmente nos importa é a emoção humana, a intenção humana. Nós nos preocupamos com os estados de espírito internos e com a maneira como os ambientes e as atividades mudam isso.”
O que Galea promete fornecer é um conjunto de entradas de sensores com bloqueio de tempo integrado no nível do hardware. Ao combinar essas diferentes leituras de sensores, Russomanno acredita que será possível criar com mais precisão uma interface mente-computador.
De certa forma, você poderia pensar nesses sensores como agentes alinhados com o que o falecido A.I. o pesquisador Marvin Minsky descreveu em seu livro de 1986 A Sociedade da Mente. Minsky sugeriu que a inteligência humana é o resultado agregado de interações entre um grande número de mecanismos simples que não são, por si só, especialmente inteligentes. Minsky dá o exemplo dos vários agentes envolvidos no consumo de uma xícara de chá. Você tem, sugere ele, um agente ganancioso focado em segurar a xícara. Você tem um agente de equilíbrio focado em evitar que o chá derrame. Você tem um agente da sede que está tentando se nutrir fazendo você beber o chá. E você tem uma variedade de agentes móveis responsáveis por levar a xícara aos lábios. Juntos, eles se combinam para criar um exemplo de comportamento inteligente – mesmo que não pensemos em beber chá como uma tarefa especialmente inteligente. Uma sociedade semelhante poderia ser alcançada combinando diferentes entradas de sensores para fins de leitura de mentes.
Pense nas possibilidades
A grande questão, claro, é para que servirá tudo isso. Russomanno deixa claro que o que o OpenBCI está construindo é uma plataforma, não um produto acabado. Galea será fornecido com um headset VR conectado e um SDK baseado em Unity que fornecerá alguns exemplos básicos de VR controlada pela mente na prática (imagine usar dados musculares do seu rosto para dirigir um carro ou mover objetos virtuais através de um tipo de VR telecinesia). Mas os reais usos serão desenvolvidos pelas pessoas que tiverem acesso à ferramenta.
“O que estamos fazendo com Galea é tentar usar todos os recursos que pudermos”, disse ele. “Queremos fornecer um playground, um playground para desenvolvedores, para permitir que nossos clientes e o desenvolvedor comunidade em geral para começar a fazer descobertas sobre quais sensores são úteis para quais tipos de formulários."
Uma coisa de que ele não tem dúvidas é o quão transformador tudo isso pode ser. Basicamente, imagine jogos que detectam suas respostas fisiológicas e ajustam sua jogabilidade de acordo. Em um nível mais profundo, pense em um aplicativo ou sistema operacional que conheça a melhor maneira de você trabalhar para obter produtividade máxima e se altere com base nisso.
“Nos últimos 20 anos, entrámos verdadeiramente numa economia de atenção – para melhor ou para pior”, disse Russomanno. “O que importa às maiores empresas do mundo é compreender as preferências dos utilizadores, o envolvimento dos utilizadores. O que ilumina alguém? O que faz alguém querer clicar e comprar algo? O que faz alguém querer permanecer em um aplicativo ou experiência em vez de fazer login em uma ferramenta ou aplicativo diferente?”
Ferramentas como o Galea visam tornar esse tipo de informação mais detectável e acionável do que nunca. E isso é apenas o começo. “Será [uma virada de jogo] quando a tecnologia realmente se tornar empática e evoluir a partir disso ideia única de ‘deixe-me projetar a interface mais atraente para o público em geral’”, disse Russomanno. “O que veremos são sistemas operacionais que estão [continuamente] ajustando suas configurações, interfaces e aplicativos de acordo com as preferências do indivíduo. Na minha opinião, é inegável que isso vai acontecer.”
Se isso acontecer, não será apenas na mente de Russomanno que esta revolução ocorrerá. Será tudo nosso.
Recomendações dos Editores
- Elon Musk planeja evento ‘mostre e conte’ sobre tecnologia cérebro-computador