Большинство из нас использовали такие приложения, как Шазам, который может идентифицировать песни, когда мы подносим телефон к динамику. Но что, если бы приложение могло идентифицировать музыкальное произведение, основываясь только на вашем образе мышления? Невозможный? Возможно, нет, согласно новому исследованию, проведенному исследователями из Калифорнийского университета в Беркли.
В 2014 году исследователь Брайан Пэсли и его коллеги использовали алгоритм глубокого обучения и активность мозга, измеряемую с помощью электродов, чтобы превратить мысли человека в синтезированную в цифровом виде речь. Это было достигнуто путем анализа мозговых волн человека во время разговора, чтобы расшифровать связь между речью и активностью мозга.
Рекомендуемые видео
Перенесемся на несколько лет вперед, и теперь команда улучшила результаты предыдущего исследования и применила свои выводы к музыке. В частности, им удалось точно (на 50 процентов точнее, чем в предыдущем исследовании) предсказать, о каких звуках думает пианист, основываясь на активности мозга.
Связанный
- Может ли А.И. превзойти инженеров-людей в разработке микрочипов? Гугл так думает
- Алгоритмическая архитектура: стоит ли позволять ИИ проектировать для нас здания?
- Почему обучение роботов игре в прятки может стать ключом к созданию искусственного интеллекта следующего поколения
«Во время слухового восприятия, когда вы слушаете такие звуки, как речь или музыка, мы знаем, что определенные части слуховой коры разлагают эти звуки на акустические частоты — например, низкие или высокие тона, Пэсли рассказал Digital Trends. «Мы проверили, обрабатывают ли эти же области мозга воображаемые звуки так же, как вы внутренне вербализируете звук собственного голоса или представляете звук классической музыки в тихой комнате. Мы обнаружили, что существует большое совпадение, но также и явные различия в том, как мозг представляет звук воображаемой музыки. Построив модель машинного обучения нейронного представления воображаемого звука, мы использовали эту модель, чтобы с достаточной точностью угадать, какой звук представлялся в каждый момент времени».
Для исследования команда записала мозговую активность пианиста, когда он играл музыку на электрической клавиатуре. Сделав это, они смогли сопоставить как структуру мозга, так и воспроизводимые ноты. Затем они повторили эксперимент, но выключив звук клавиатуры и попросив музыканта представить ноты, когда он их играет. Это обучение позволило им создать свой алгоритм прогнозирования музыки.
«Долгосрочная цель нашего исследования — разработать алгоритмы речевого протеза для восстановления общения у парализованных людей, которые не могут говорить», — сказал Пэсли. «Мы довольно далеки от реализации этой цели, но это исследование представляет собой важный шаг вперед. Это демонстрирует, что нейронный сигнал во время слуховых образов достаточно устойчив и точен. для использования в алгоритмах машинного обучения, которые могут предсказывать акустические сигналы от измеряемого мозга активность."
Был документ с описанием работы. недавно опубликовано в журнале Cerebral Cortex..
Рекомендации редакции
- Вот что анализирует тенденции ИИ. думает, что это будет следующим большим достижением в сфере технологий
- Прочтите устрашающе красивое «синтетическое писание» ИИ. который думает, что это Бог
- Чувствующий эмоции искусственный интеллект здесь, и это может быть на вашем следующем собеседовании
- Ученые используют ИИ. создать искусственный генетический код человека
- BigSleep ИИ. это похоже на поиск картинок Google для изображений, которых еще не существует.
Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, содержательным редакционным статьям и уникальным кратким обзорам.