우리 대부분은 Shazam과 같은 앱, 스피커에 전화기를 대면 노래를 식별할 수 있습니다. 하지만 앱이 단지 사용자의 사고 패턴만을 토대로 음악을 식별하는 것이 가능하다면 어떨까요? 불가능한? 아마도 그렇지 않을 수도 있습니다. 버클리 캘리포니아 대학의 연구자들이 수행한 새로운 연구에 따르면.
2014년에 연구원 Brian Pasley와 동료들은 전극으로 측정된 딥 러닝 알고리즘과 뇌 활동을 사용하여 사람의 생각을 디지털 합성 음성으로 전환했습니다. 이는 말과 뇌 활동 사이의 연관성을 해독하기 위해 말하는 동안 사람의 뇌파를 분석함으로써 달성되었습니다.
추천 동영상
몇 년이 지난 지금, 팀은 이전 연구를 개선하고 그 결과를 음악에 적용했습니다. 구체적으로, 그들은 뇌 활동을 기반으로 피아니스트가 생각하는 소리가 무엇인지 정확하게(이전 연구보다 50% 더 정확하게) 예측할 수 있었습니다.
관련된
- A.I. 마이크로칩 설계에서 인간 엔지니어를 이길 수 있습니까? 구글은 그렇게 생각한다
- 알고리즘 아키텍처: A.I. 우리를 위한 건물 디자인?
- 로봇에게 숨바꼭질 놀이를 가르치는 것이 차세대 AI의 핵심이 될 수 있는 이유
“청각적 인식 과정에서 말이나 음악과 같은 소리를 들을 때 우리는 다음과 같은 것을 알고 있습니다. 청각 피질의 일부는 이러한 소리를 음향 주파수(예: 낮음 또는 높음)로 분해합니다. 톤,” 파슬리 디지털트렌드에 말했다. “우리는 동일한 두뇌 영역이 자신의 목소리 소리를 내부적으로 말로 표현하는 것과 같은 방식으로 상상의 소리를 처리하는지 또는 조용한 방에서 클래식 음악 소리를 상상하는지 테스트했습니다. 우리는 뇌가 상상하는 음악의 소리를 어떻게 표현하는지에 있어서 큰 중복이 있지만 뚜렷한 차이가 있다는 것을 발견했습니다. 상상된 소리의 신경 표현에 대한 기계 학습 모델을 구축함으로써 우리는 이 모델을 사용하여 각 순간에 어떤 소리가 상상되었는지 합리적인 정확도로 추측했습니다.”
연구를 위해 팀은 피아니스트가 전자 키보드로 음악을 연주할 때 뇌 활동을 기록했습니다. 이를 통해 그들은 뇌 패턴과 연주되는 음표를 모두 일치시킬 수 있었습니다. 그런 다음 그들은 다시 실험을 수행했지만 건반 소리를 끄고 연주자에게 연주할 때 음을 상상해 보라고 요청했습니다. 이 훈련을 통해 그들은 음악 예측 알고리즘을 만들 수 있었습니다.
Pasley는 “우리 연구의 장기 목표는 말을 할 수 없는 마비된 개인의 의사소통을 복원하기 위한 언어 보철 장치용 알고리즘을 개발하는 것입니다.”라고 말했습니다. “우리는 그 목표를 실현하기에는 아직 멀었지만 이번 연구는 중요한 진전을 의미합니다. 청각 영상의 신경 신호가 충분히 강력하고 정확하다는 것을 보여줍니다. 측정된 뇌의 음향 신호를 예측할 수 있는 기계 학습 알고리즘에 사용 활동."
작업을 설명하는 논문은 다음과 같습니다. 최근 Cerebral Cortex 저널에 게재됨.
편집자의 추천
- 추세 분석 AI는 다음과 같습니다. 기술 분야에서 차세대 혁신이 될 것이라고 생각합니다.
- AI의 섬뜩할 정도로 아름다운 '종합 성서'를 읽어보세요. 그게 신이라고 생각하는 거야
- 감정 감지 A.I. 여기 있습니다. 다음 면접에 나올 수도 있습니다.
- 과학자들은 AI를 사용하고 있습니다. 인공적인 인간 유전자 코드를 만들기 위해
- 빅슬립(BigSleep) AI 아직 존재하지 않는 사진에 대한 Google 이미지 검색과 같습니다.
당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.