A produção musical está cada vez mais digitalizada aqui em 2020, mas alguns efeitos de áudio analógico ainda são muito difíceis de reproduzir desta forma. Um desses efeitos é o tipo de distorção de guitarra estridente preferida pelos deuses do rock em todos os lugares. Até agora, estes efeitos, que envolvem amplificadores de guitarra, têm sido quase impossíveis de recriar digitalmente.
Isso mudou agora graças ao trabalho de pesquisadores do departamento de processamento de sinais e acústica da Universidade Aalto, na Finlândia. Usando inteligência artificial (IA) de aprendizado profundo, eles criaram uma rede neural para guitarra modelagem de distorção que, pela primeira vez, pode enganar os ouvintes do teste cego, fazendo-os pensar que é o genuíno artigo. Pense nisso como um Teste de Turing, dobrado até um 11 estilo Spinal Tap.
Vídeos recomendados
“Há décadas que os pesquisadores de áudio acreditam que a imitação precisa do som distorcido dos amplificadores valvulados de guitarra é muito desafiadora.”
Professora Vesa Välimäki disse Tendências Digitais. “Um dos motivos é que a distorção está relacionada ao comportamento dinâmico não linear, que é conhecido por ser difícil de simular, mesmo teoricamente. Outra razão pode ser que os sons distorcidos da guitarra são geralmente bastante proeminentes na música, por isso parece difícil esconder quaisquer problemas aí; todas as imprecisões serão muito perceptíveis.”Para treinar a rede neural para recriar uma variedade de efeitos de distorção, tudo o que é necessário são alguns minutos de áudio gravado no amplificador alvo. Os pesquisadores usaram áudio “limpo” gravado de uma guitarra elétrica em um Câmara anecóica, e depois passou por um amplificador. Isso forneceu uma entrada na forma de som de guitarra imaculado e uma saída na forma da saída do amplificador de guitarra “alvo” correspondente.
“O treinamento é feito alimentando a rede neural com um pequeno segmento de áudio de guitarra limpo e comparando a saída da rede com o saída do amplificador ‘alvo’”, disse Alec Wright, um estudante de doutorado focado em processamento de áudio usando aprendizado profundo, à Digital Trends. “Essa comparação é feita na ‘função perda’, que é simplesmente uma equação que representa até que ponto o a saída da rede neural provém da saída alvo ou, quão “errada” é a previsão do modelo da rede neural era. A chave é um processo chamado ‘gradiente descendente’, onde você calcula como ajustar a rede neural parâmetros muito ligeiramente, de modo que a previsão da rede neural fique um pouco mais próxima da do amplificador alvo saída. Esse processo é então repetido milhares de vezes – ou às vezes muito mais – até que a saída da rede neural pare de melhorar.”
Você pode conferir uma demonstração do A.I. em ação em research.spa.aalto.fi/publicações/artigos/applsci-profundo/. Um artigo descrevendo o trabalho foi publicado recentemente na revista Ciências Aplicadas.
Recomendações dos Editores
- Ilusões de ótica podem nos ajudar a construir a próxima geração de IA
- IA analógica? Parece loucura, mas pode ser o futuro
- O mais recente A.I. da Nvidia os resultados provam que o ARM está pronto para o data center
- Nvidia reduz a barreira de entrada na IA com Comando de Frota e LaunchPad
- A IA pode vencer os engenheiros humanos no projeto de microchips? Google pensa assim
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.