A maioria de nós já usou aplicativos como Shazam, que pode identificar músicas quando aproximamos nosso telefone de um alto-falante. Mas e se fosse possível para um aplicativo identificar uma peça musical com base em nada mais do que seus padrões de pensamento? Impossível? Talvez não, de acordo com uma nova pesquisa realizada por investigadores da Universidade da Califórnia, em Berkeley.
Em 2014, o pesquisador Brian Pasley e colegas usaram um algoritmo de aprendizagem profunda e a atividade cerebral, medida com eletrodos, para transformar os pensamentos de uma pessoa em fala sintetizada digitalmente. Isto foi conseguido através da análise das ondas cerebrais de uma pessoa enquanto ela falava, a fim de decodificar a ligação entre a fala e a atividade cerebral.
Vídeos recomendados
Avançando alguns anos, a equipe agora melhorou a pesquisa anterior e aplicou suas descobertas à música. Especificamente, eles foram capazes de prever com precisão (50% mais precisão do que o estudo anterior) em quais sons um pianista está pensando, com base na atividade cerebral.
Relacionado
- A IA pode vencer os engenheiros humanos no projeto de microchips? Google pensa assim
- Arquitetura algorítmica: devemos deixar a I.A. projetar edifícios para nós?
- Por que ensinar robôs a brincar de esconde-esconde pode ser a chave para a IA da próxima geração
“Durante a percepção auditiva, quando você ouve sons como fala ou música, sabemos que certos partes do córtex auditivo decompõem esses sons em frequências acústicas – por exemplo, baixas ou altas tons”, Pasley disse Tendências Digitais. “Testamos se essas mesmas áreas cerebrais também processam sons imaginados da mesma forma que você verbaliza internamente o som da sua própria voz ou imagina o som da música clássica em uma sala silenciosa. Descobrimos que havia uma grande sobreposição, mas também diferenças distintas na forma como o cérebro representa o som da música imaginada. Ao construir um modelo de aprendizado de máquina da representação neural do som imaginado, usamos o modelo para adivinhar com precisão razoável qual som foi imaginado em cada instante no tempo.”
Para o estudo, a equipe registrou a atividade cerebral de um pianista quando ele tocava música em um teclado elétrico. Ao fazer isso, eles conseguiram combinar os padrões cerebrais e as notas tocadas. Eles então realizaram o experimento novamente, mas desligando o som do teclado e pedindo ao músico que imaginasse as notas enquanto as tocava. Este treinamento permitiu que eles criassem seu algoritmo de previsão musical.
“O objetivo de longo prazo de nossa pesquisa é desenvolver algoritmos para um dispositivo protético de fala para restaurar a comunicação em indivíduos paralisados que não conseguem falar”, disse Pasley. “Estamos muito longe de atingir esse objetivo, mas este estudo representa um importante passo em frente. Demonstra que o sinal neural durante a imagem auditiva é suficientemente robusto e preciso para uso em algoritmos de aprendizado de máquina que podem prever sinais acústicos do cérebro medido atividade."
Um artigo descrevendo o trabalho foi publicado recentemente na revista Cerebral Cortex.
Recomendações dos Editores
- Aqui está o que uma IA de análise de tendências. acha que será a próxima grande novidade na tecnologia
- Leia a estranhamente bela “escritura sintética” de uma IA. que pensa que é Deus
- IA com detecção de emoção está aqui e pode estar na sua próxima entrevista de emprego
- Os cientistas estão usando IA. para criar código genético humano artificial
- A IA do BigSleep é como a Pesquisa de imagens do Google para imagens que ainda não existem
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.