Більшість із нас використовували такі програми, як Shazam, який може ідентифікувати пісні, коли ми підносимо телефон до динаміка. Але що, якби програма могла ідентифікувати музичний твір лише на основі ваших моделей мислення. Неможливо? Можливо, ні, згідно з новим дослідженням, проведеним дослідниками Каліфорнійського університету в Берклі.
У 2014 році дослідник Браян Паслі та його колеги використали алгоритм глибокого навчання та активність мозку, виміряну за допомогою електродів, щоб перетворити думки людини на цифрову синтезовану мову. Це було досягнуто шляхом аналізу мозкових хвиль людини під час її розмови, щоб розшифрувати зв’язок між мовою та мозковою активністю.
Рекомендовані відео
Перескочимо на кілька років вперед, і тепер команда вдосконалила попередні дослідження та застосувала свої висновки до музики. Зокрема, вони змогли точно (на 50 відсотків точніше, ніж у попередньому дослідженні) передбачити, про які звуки думає піаніст, на основі активності мозку.
Пов'язані
- Чи може А.І. перемогти інженерів-людей у розробці мікрочіпів? Google так вважає
- Алгоритмічна архітектура: чи повинні ми дозволити А.І. проектувати будівлі для нас?
- Чому навчання роботів грати в хованки може стати ключем до Штучного інтелекту наступного покоління
«Під час слухового сприйняття, коли ви слухаєте такі звуки, як мова чи музика, ми знаємо, що це точно частини слухової кори розкладають ці звуки на акустичні частоти - наприклад, низькі або високі тони», Паслі розповів Digital Trends. «Ми перевірили, чи ці ж області мозку також обробляють уявні звуки так само, як ви внутрішньо вербалізуєте звук свого власного голосу або уявляєте звучання класичної музики в тихій кімнаті. Ми виявили, що існує велике збігання, але також і чіткі відмінності в тому, як мозок репрезентує звук уявної музики. Побудувавши модель машинного навчання нейронної репрезентації уявного звуку, ми використали цю модель, щоб з достатньою точністю вгадати, який звук уявився в кожен момент часу».
Для дослідження команда записала мозкову активність піаніста, коли він грав музику на електричній клавіатурі. Роблячи це, вони змогли зіставити як шаблони мозку, так і зіграні ноти. Потім вони знову провели експеримент, але вимкнули звук клавіатури та попросили музиканта уявити ноти, коли він їх грав. Це навчання дозволило їм створити свій алгоритм прогнозування музики.
«Довгострокова мета нашого дослідження — розробити алгоритми для мовного протеза, щоб відновити спілкування у паралізованих людей, які не можуть говорити», — сказав Паслі. «Ми досить далекі від реалізації цієї мети, але це дослідження є важливим кроком вперед. Це демонструє, що нервовий сигнал під час слухових образів є достатньо надійним і точним для використання в алгоритмах машинного навчання, які можуть передбачати акустичні сигнали від вимірюваного мозку діяльність».
Папір з описом роботи був нещодавно опублікований у журналі Cerebral Cortex.
Рекомендації редакції
- Ось що аналізує тенденції A.I. думає, що це буде наступна велика річ у техніці
- Прочитайте моторошно красиве «синтетичне писання» штучного інтелекту. що думає, що це Бог
- Чуттєвий А.І. тут, і це може бути під час вашої наступної співбесіди
- Вчені використовують А.І. створити штучний генетичний код людини
- BigSleep A.I. це як Google Image Search для фотографій, яких ще не існує
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.