Повечето от нас са използвали приложения като Shazam, който може да идентифицира песни, когато вдигнем телефона си до високоговорител. Но какво ще стане, ако е възможно едно приложение да идентифицира музикално произведение въз основа на нищо повече от вашите мисловни модели. Невъзможен? Може би не, според ново изследване, проведено от изследователи от Калифорнийския университет в Бъркли.
През 2014 г. изследователят Брайън Пасли и колеги използваха алгоритъм за дълбоко обучение и мозъчна активност, измерена с електроди, за да превърнат мислите на човек в цифрово синтезирана реч. Това беше постигнато чрез анализиране на мозъчните вълни на човек, докато той говори, за да се декодира връзката между речта и мозъчната дейност.
Препоръчани видеоклипове
Преминете няколко години напред и сега екипът е подобрил това по-ранно изследване и е приложил откритията си към музиката. По-конкретно, те успяха точно (50 процента по-точно от предишното проучване) да предскажат какви звуци си мисли пианистът, въз основа на мозъчната активност.
Свързани
- Може ли A.I. победи човешките инженери при проектирането на микрочипове? Google смята така
- Алгоритмична архитектура: Трябва ли да оставим A.I. проектират сгради за нас?
- Защо обучението на роботи да играят на криеница може да бъде ключът към ИИ от следващо поколение
„По време на слухово възприятие, когато слушате звуци като реч или музика, ние знаем, че това е сигурно части от слуховата кора разлагат тези звуци на акустични честоти - например ниски или високи тонове,” Пасли каза Digital Trends. „Тествахме дали същите тези области на мозъка също обработват въображаеми звуци по същия начин, по който вие вътрешно вербализирате звука на собствения си глас или си представяте звука на класическа музика в тиха стая. Открихме, че има голямо припокриване, но също така и различни разлики в това как мозъкът представя звука на въображаема музика. Чрез изграждането на модел за машинно обучение на невронното представяне на въображаем звук, ние използвахме модела, за да отгатнем с разумна точност какъв звук е бил въобразен във всеки момент от времето.“
За целите на изследването екипът записва мозъчната активност на пианист, когато свири музика на електрическа клавиатура. Правейки това, те успяха да съпоставят както мозъчните модели, така и изсвирените ноти. След това те извършиха експеримента отново, но като изключиха звука на клавиатурата и помолиха музиканта да си представи нотите, докато ги свири. Това обучение им позволи да създадат свой алгоритъм за прогнозиране на музика.
„Дългосрочната цел на нашето изследване е да разработим алгоритми за речево протезно устройство за възстановяване на комуникацията при парализирани индивиди, които не могат да говорят“, каза Пасли. „Ние сме доста далеч от реализирането на тази цел, но това проучване представлява важна стъпка напред. Той демонстрира, че невронният сигнал по време на слухови изображения е достатъчно стабилен и прецизен за използване в алгоритми за машинно обучение, които могат да предсказват акустични сигнали от измерен мозък дейност."
Беше документ, описващ работата наскоро публикуван в списанието Cerebral Cortex.
Препоръки на редакторите
- Ето какво анализира тенденцията A.I. смята, че ще бъде следващото голямо нещо в технологиите
- Прочетете зловещо красивото „синтетично писание“ на A.I. който мисли, че е Бог
- Емоционален ИИ е тук и може да бъде на следващото ви интервю за работа
- Учените използват A.I. за създаване на изкуствен човешки генетичен код
- BigSleep A.I. е като Google Image Search за снимки, които все още не съществуват
Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.