Większość z nas korzystała aplikacje takie jak Shazam, który rozpoznaje utwory, gdy przykładamy telefon do głośnika. A co by było, gdyby aplikacja mogła zidentyfikować utwór muzyczny wyłącznie na podstawie Twoich wzorców myślowych. Niemożliwe? Być może nie, jak wynika z nowego badania przeprowadzonego przez badaczy z Uniwersytetu Kalifornijskiego w Berkeley.
W 2014 roku badacz Brian Pasley i współpracownicy wykorzystali algorytm głębokiego uczenia się i aktywność mózgu mierzoną za pomocą elektrod, aby przekształcić myśli danej osoby w cyfrowo syntetyzowaną mowę. Osiągnięto to poprzez analizę fal mózgowych danej osoby podczas mówienia, aby rozszyfrować związek między mową a aktywnością mózgu.
Polecane filmy
Przejdźmy kilka lat do przodu, a zespół ulepszył wcześniejsze badania i zastosował swoje ustalenia w muzyce. W szczególności byli w stanie dokładnie (o 50 procent dokładniej niż w poprzednim badaniu) przewidzieć, o jakich dźwiękach myśli pianista, na podstawie aktywności mózgu.
Powiązany
- Czy sztuczna inteligencja pokonać inżynierów w projektowaniu mikroczipów? Google tak uważa
- Architektura algorytmiczna: czy powinniśmy pozwolić A.I. projektować dla nas budynki?
- Dlaczego uczenie robotów zabawy w chowanego może być kluczem do sztucznej inteligencji nowej generacji?
„Podczas percepcji słuchowej, kiedy słuchasz dźwięków, takich jak mowa lub muzyka, wiemy to na pewno części kory słuchowej rozkładają te dźwięki na częstotliwości akustyczne – na przykład niskie lub wysokie tony” Pasleya powiedział Digital Trends. „Przetestowaliśmy, czy te same obszary mózgu przetwarzają również wyimaginowane dźwięki w taki sam sposób, w jaki wewnętrznie werbalizujesz dźwięk własnego głosu lub wyobrażasz sobie dźwięk muzyki klasycznej w cichym pokoju. Odkryliśmy, że występowało duże nakładanie się, ale także wyraźne różnice w sposobie, w jaki mózg reprezentuje dźwięk wyobrażonej muzyki. Budując model neuronowej reprezentacji wyobrażonego dźwięku oparty na uczeniu maszynowym, wykorzystaliśmy go do odgadnięcia z rozsądną dokładnością, jaki dźwięk został wyobrażony w każdym momencie”.
Na potrzeby badania zespół zarejestrował aktywność mózgu pianisty grającego muzykę na klawiaturze elektrycznej. Robiąc to, byli w stanie dopasować zarówno wzorce mózgowe, jak i grane nuty. Następnie ponownie przeprowadzili eksperyment, ale wyłączając dźwięk klawiatury i prosząc muzyka, aby wyobraził sobie nuty podczas ich gry. To szkolenie pozwoliło im stworzyć algorytm przewidywania muzyki.
„Długoterminowym celem naszych badań jest opracowanie algorytmów dla protezy mowy, która umożliwi przywrócenie komunikacji osobom sparaliżowanym, które nie mogą mówić” – powiedział Pasley. „Jesteśmy dość dalecy od realizacji tego celu, ale to badanie stanowi ważny krok naprzód. Pokazuje, że sygnał neuronowy podczas obrazowania słuchowego jest wystarczająco mocny i precyzyjny do stosowania w algorytmach uczenia maszynowego, które mogą przewidywać sygnały akustyczne z mierzonego mózgu działalność."
Artykuł opisujący tę pracę był niedawno opublikowane w czasopiśmie Cerebral Cortex.
Zalecenia redaktorów
- Oto, co analizująca trendy A.I. uważa, że będzie to kolejna wielka rzecz w technologii
- Przeczytaj niesamowicie piękne „syntetyczne pismo” AI. który myśli, że jest Bogiem
- Sztuczna inteligencja wyczuwająca emocje już tu jest i może pojawić się podczas Twojej następnej rozmowy kwalifikacyjnej
- Naukowcy wykorzystują sztuczną inteligencję do stworzenia sztucznego ludzkiego kodu genetycznego
- Sztuczna inteligencja BigSleep jest jak wyszukiwarka grafiki Google, szukająca zdjęć, które jeszcze nie istnieją
Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.