2020년 이곳에서는 음악 제작이 점점 디지털화되고 있지만 일부 아날로그 오디오 효과는 여전히 이러한 방식으로 재현하기가 매우 어렵습니다. 이러한 효과 중 하나는 모든 록 신들이 선호하는 날카로운 기타 디스토션입니다. 지금까지는 기타 앰프와 관련된 이러한 효과를 디지털 방식으로 재현하는 것이 거의 불가능했습니다.
이제 핀란드 알토 대학교(Aalto University)의 신호 처리 및 음향학과 연구원들의 연구 덕분에 상황이 바뀌었습니다. 딥러닝 인공지능(A.I.)을 이용해 기타 신경망을 만들었습니다. 처음으로 블라인드 테스트 청취자가 진짜라고 생각하도록 속일 수 있는 왜곡 모델링 기사. 다음과 같이 생각해보세요. 튜링 테스트, 크랭크 Spinal Tap 스타일 11까지.
추천 동영상
"진공관 기타 앰프의 왜곡된 사운드를 정확하게 모방하는 것은 매우 어렵다는 것이 수십 년 동안 오디오 연구자들의 일반적인 믿음이었습니다." Vesa Välimäki 교수 디지털트렌드에 말했다. “한 가지 이유는 왜곡이 이론적으로도 시뮬레이션하기 어려운 것으로 알려진 동적 비선형 동작과 관련되어 있기 때문입니다. 또 다른 이유는 왜곡된 기타 사운드가 일반적으로 음악에서 상당히 두드러지기 때문에 문제를 숨기기가 어려워 보이기 때문일 수 있습니다. 모든 부정확성은 매우 눈에 띄게 될 것입니다.”
다양한 왜곡 효과를 재현하도록 신경망을 훈련하려면 대상 증폭기에서 녹음된 몇 분의 오디오만 있으면 됩니다. 연구원들은 전자 기타에서 녹음된 "깨끗한" 오디오를 사용했습니다. 무향실, 그런 다음 증폭기를 통해 실행했습니다. 이는 흠집 없는 기타 사운드 형태의 입력과 해당 "대상" 기타 앰프 출력 형태의 출력을 모두 제공했습니다.
“훈련은 깨끗한 기타 오디오의 짧은 세그먼트를 신경망에 공급하고 네트워크의 출력을 딥 러닝을 사용한 오디오 처리에 중점을 둔 박사 과정 학생인 Alec Wright는 Digital Trends에 "'타겟' 증폭기 출력"이라고 말했습니다. “이 비교는 손실 함수(loss function)로 이루어집니다. 손실 함수는 단순히 손실이 얼마나 되는지를 나타내는 방정식입니다. 신경망 출력은 목표 출력에서 나온 것인지 또는 신경망 모델의 예측이 얼마나 '잘못'되었는지를 나타냅니다. 였다. 핵심은 신경망의 변화량을 어떻게 조정하는지 계산하는 '경사하강법'이라는 과정이다. 매개변수가 매우 약간 변경되므로 신경망의 예측은 대상 증폭기의 예측에 약간 더 가깝습니다. 산출. 이 프로세스는 신경망의 출력이 더 이상 향상되지 않을 때까지 수천 번, 때로는 훨씬 더 반복됩니다.”
A.I 데모를 확인하실 수 있습니다. Research.spa.aalto.fi/에서 진행 중출판물/논문/응용프로그램-깊은/. 작업을 설명하는 논문은 다음과 같습니다. 최근 Applied Sciences 저널에 게재됨.
편집자의 추천
- 착시 현상은 차세대 AI를 구축하는 데 도움이 될 수 있습니다
- 아날로그 AI? 이상하게 들리겠지만, 미래일 수도 있습니다
- 엔비디아의 최신 AI 결과는 ARM이 데이터 센터에 대한 준비가 되어 있음을 입증합니다.
- 엔비디아는 AI 진입 장벽을 낮췄다. Fleet Command 및 LaunchPad 사용
- A.I. 마이크로칩 설계에서 인간 엔지니어를 이길 수 있습니까? 구글은 그렇게 생각한다
당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.