Conor Russomanno está trabajando en algo bastante importante: está construyendo unos auriculares que podrán leer de forma no invasiva los pensamientos de las personas y utilizarlos para controlar las interfaces de las computadoras del mañana. Pero ahora mismo, su gran preocupación es si eligió o no el nombre correcto para su startup.
Contenido
- Construyendo una interfaz cerebro-mente-computadora
- Sociedad de lectores de mentes
- Piensa en las posibilidades
"Ya sabes", dijo Russomanno, cofundador y director ejecutivo de una startup de interfaz cerebro-computadora llamada AbiertoBCI, "A veces desearía que hubiéramos llamado a nuestra empresa OpenMCI, como interfaz de computadora mental o algo así".
Vídeos recomendados
Russomanno no es el primer fundador, y no será el último, en experimentar arrepentimientos momentáneos por el nombre de su empresa. Pero, en su caso, ese arrepentimiento no tiene nada que ver con que el nombre potencialmente no resuene con el enfoque. grupos, o infringir una marca registrada, o cualquiera de las otras razones cotidianas que un fundador podría tener en segundo lugar. pensamientos.
Relacionado
- Por primera vez se implantan interfaces cerebro-computadora en humanos
De hecho, es una remezcla muy tecnológica de un enigma filosófico clásico: la diferencia entre el cerebro y la mente. Y puede que sea el futuro de la informática tal como la conocemos.
Construyendo un cerebro interfaz mente-computadora
Retrocedamos un poco. La primera vez que Russomanno se interesó seriamente en el cerebro acababa de sufrir una lesión cerebral traumática. Como jugador de fútbol universitario, había sufrido conmociones cerebrales antes. Sin embargo, el que sufrió en 2010 mientras jugaba rugby en el equipo del club de la Universidad de Columbia fue diferente. "Tenía problemas para leer y estudiar", dijo Russomanno a Digital Trends. “Realmente comencé a reflexionar sobre la diferencia entre cerebro y mente. Si dañas el “hardware”, puedes sentirlo en el “software”. Fui a varios psicólogos y neurólogos y todos me dijeron que estaba bien. [Pero no] me sentí bien”.
Russomanno se recuperó de la conmoción cerebral, pero su interés por el cerebro no flaqueó. Un año después, se encontró en la escuela de posgrado, estudiando en el programa de Maestría en Diseño y Tecnología en la Escuela de Diseño Parsons. Se le pidió a Russomanno que construyera un proyecto para su clase de computación física. Mirando a su alrededor, encontró un tutorial en línea que explicaba exactamente cómo piratear las ondas cerebrales de un juguete de electroencefalografía (EEG) y convertirlas en software de código abierto. "Ese fue el comienzo de mi búsqueda en BCI", dijo. "No he vuelto a mirar atrás desde entonces".
OpenBCI, una startup con sede en Brooklyn, Nueva York, irrumpió en escena en 2015 con una pareja deProyectos de arranque cuyo objetivo era construir proyectos de interfaz cerebro-computadora para investigadores con un presupuesto limitado. Entre ellos, recaudaron poco menos de 400.000 dólares y lanzaron la empresa. Ahora OpenBCI está de regreso con su proyecto más ambicioso hasta la fecha: un auricular repleto de sensores compatible con realidad virtual y realidad aumentada llamado Galea, anunció este mes.
“Si estás tratando de saber exactamente cómo cambia la fisiología, el cerebro o la mente de alguien en respuesta a estímulos, hay que asegurarse de que todos esos datos estén muy, muy estrechamente sincronizados con el estímulo mismo”.
Galea, que se enviará inicialmente en algún momento de 2021, es uno de los número creciente de auriculares EEG portátiles que monitorean la actividad eléctrica en el cuero cabelludo y transmiten esta información a una computadora.
La idea de utilizar entradas de EEG como una forma de interactuar directamente con una computadora no es una idea nueva. A principios de los años 1970, jacques vidal, profesor del Brain Research Institute de la Universidad de California en Los Ángeles (UCLA), acuñó la frase “interfaz cerebro-computadora” para describir esta noción. “¿Se pueden utilizar estas señales eléctricas cerebrales observables como portadoras de información en una relación hombre-computadora? ¿comunicación o con el propósito de controlar aparatos externos como prótesis o naves espaciales? vidal reflexionado en un artículo de investigación de 1973. "Incluso basándose únicamente en los últimos avances de la informática y la neurofisiología, se puede sugerir que tal hazaña está potencialmente a la vuelta de la esquina".
Las cosas han tardado mucho más de lo que Vidal hubiera imaginado inicialmente. Pero el EEG finalmente está empezando a estar a la altura de su potencial. Incluso en los últimos años, la tecnología se ha vuelto más portátil y eficaz. Sin embargo, la promesa de Galea va más allá del simple EEG. Según se informa, los auriculares incluirán múltiples sensores, no solo electroencefalograma, sino también electrooculografía (EOG), electromiografía (EMG), actividad electrodérmica (EDA) y fotopletismografía (PPG). Esto significa que recopilará datos no sólo del cerebro, sino también de los ojos, el corazón, la piel y la piel del usuario. músculos, lo que permite "medir objetivamente" una variedad de estados internos a través de las respuestas biológicas del cuerpo a estímulos.
Según OpenBCI, esto debería permitir a Galea cuantificar con precisión las métricas de participación, incluidas la felicidad, la ansiedad, la depresión, la capacidad de atención, el nivel de interés y más, todo en tiempo real.
“La forma en que la comunidad de neurociencia hace actualmente lo que se llama detección multimodal (o a mí me gusta llamar fusión de sensores) es comprando un "Hay una cantidad de productos diferentes de diferentes desarrolladores externos [y] luego tener que unir estos datos en un software", Russomanno dicho. “Esto plantea problemas porque fijar el tiempo es muy, muy importante. Si estás tratando de saber exactamente cómo cambia la fisiología, el cerebro o la mente de alguien en respuesta a estímulos, hay que asegurarse de que todos esos datos estén muy, muy estrechamente sincronizados con el estímulo mismo. La forma en que la gente hace esto ahora es que tienen diferentes controladores, diferentes software y diferentes configuraciones de hardware. Es un proceso muy tedioso en este momento para los neurocientíficos y los desarrolladores [de investigación y desarrollo]”.
Sociedad de lectores de mentes
En esta idea de combinar datos de diferentes fuentes es donde entra en juego la cuestión del cerebro versus la mente. En términos generales, la diferencia entre el cerebro y la mente es, como señaló Russomanno, la diferencia entre hardware y software. La mente sin duda está asociada al cerebro, pero no necesariamente es lo mismo. El cerebro es un órgano físico, mientras que la mente es un concepto hipotético e intangible que se relaciona con la comprensión del mundo, la conciencia y los procesos de pensamiento de una persona.
El dualismo postula que nuestras mentes son más que simplemente nuestros cerebros. Este es un concepto espiritual, pero aquí se aplica una versión del mismo. Si está tratando de medir los procesos de pensamiento de alguien, podría hacerlo mejor que simplemente limitarse a la resolución espacial comparativamente baja del análisis cerebral EEG. ¿Sabes lo que dicen que los ojos son las ventanas del alma? Bueno, tal vez otras respuestas corporales también lo sean. Construya suficientes ventanas en una casa y debería poder ver lo que sucede dentro.
“Lo que realmente nos importa es la emoción humana, la intención humana. Nos preocupamos por los estados mentales internos y la forma en que los entornos y las actividades los cambian”.
Se podrían encontrar valiosos indicadores de la mente, por ejemplo, utilizando el seguimiento ocular basado en imágenes para inferir información sobre la intención, el interés y la excitación que luego podría compararse con el EEG datos. Estos conjuntos de datos combinados tienen un valor predictivo significativamente mayor que uno solo. Como lo expresa sin rodeos Russomanno: “Realmente no nos importa el cerebro; simplemente sabemos que el cerebro es el núcleo del sistema nervioso y el núcleo de la mente. Lo que realmente nos importa es la emoción humana, la intención humana. Nos preocupamos por los estados mentales internos y la forma en que los entornos y las actividades los cambian”.
Lo que Galea promete proporcionar es una serie de entradas de sensores con bloqueo de tiempo integradas a nivel de hardware. Al combinar estas diferentes lecturas de sensores, Russomanno cree que será posible crear con mayor precisión una interfaz mente-computadora.
En cierto modo, se podría pensar en estos sensores como agentes en línea con lo que el difunto A.I. El investigador Marvin Minsky describió en su libro de 1986 La sociedad de la mente. Minsky sugirió que la inteligencia humana es el resultado agregado de interacciones entre un gran número de mecanismos simples que no son, en sí mismos, especialmente inteligentes. Minsky da el ejemplo de los diversos agentes que intervienen en el consumo de una taza de té. Sugiere que tienes un agente de agarre centrado en sujetar la copa. Tienes un agente equilibrador centrado en evitar que el té se derrame. Tienes un agente de la sed que intenta nutrirte haciéndote beber el té. Y tienes una variedad de agentes móviles responsables de llevar la copa a tus labios. Juntos, se combinan para crear un ejemplo de comportamiento inteligente, incluso si no pensamos que beber té sea una tarea especialmente inteligente. Se podría lograr una sociedad similar combinando diferentes entradas de sensores con fines de lectura de la mente.
Piensa en las posibilidades
La gran pregunta, por supuesto, es para qué se utilizará todo esto. Russomanno tiene claro que lo que OpenBCI está construyendo es una plataforma, no un producto terminado. Galea se enviará con un casco de realidad virtual conectado y un SDK basado en Unity que proporcionará algunos ejemplos básicos de realidad virtual controlada mentalmente. en la práctica (imagínese usar datos musculares de su cara para conducir un automóvil o mover objetos virtuales a través de un tipo de realidad virtual telequinesia). Pero los usos reales serán desarrollados por las personas que tengan acceso a la herramienta.
"Lo que estamos haciendo con Galea es tratar de incluir todas las comodidades que podamos", dijo. “Queremos proporcionar un área de juegos, un área de juegos para desarrolladores, para permitir a nuestros clientes y al desarrollador comunidad en general para comenzar a hacer descubrimientos sobre qué sensores son útiles para qué tipos de aplicaciones”.
Una cosa de la que no tiene dudas es de cuán transformador podría ser todo esto. En el lado superficial, imagine juegos que detecten sus respuestas fisiológicas y ajusten su juego en consecuencia. En un nivel más profundo, piense en una aplicación o sistema operativo que conozca la mejor manera de trabajar para obtener la máxima productividad y se modifique en función de eso.
“Durante los últimos 20 años, realmente hemos entrado en una economía de la atención, para bien o para mal”, dijo Russomanno. “Lo que les importa a las empresas más grandes del mundo es comprender las preferencias y la participación de los usuarios. ¿Qué ilumina a alguien? ¿Qué hace que alguien quiera hacer clic y comprar algo? ¿Qué hace que alguien quiera permanecer en una aplicación o experiencia en lugar de iniciar sesión en una herramienta o aplicación diferente?
Herramientas como Galea tienen como objetivo hacer que este tipo de información sea más detectable y procesable que nunca. Y eso es sólo el comienzo. “Será [un cambio de juego] cuando la tecnología realmente se vuelva empática y evolucione a partir de esto. idea única para todos de 'déjame diseñar la interfaz más atractiva para el público en general'”, dijo Rusomanno. “Lo que vamos a ver son sistemas operativos que están ajustando [continuamente] sus configuraciones, interfaces y aplicaciones según las preferencias del individuo. En mi opinión, es innegable que esto va a suceder”.
Si es así, no será sólo la mente de Russomanno la que tendrá lugar esta revolución. Será todo nuestro.
Recomendaciones de los editores
- Elon Musk planea un evento para "mostrar y contar" sobre tecnología cerebro-computadora