Většina z nás použila aplikace jako Shazam, který dokáže identifikovat skladby, když přiložíme telefon k reproduktoru. Ale co kdyby bylo možné, aby aplikace identifikovala hudební skladbu na základě ničeho jiného než vašich myšlenkových vzorců. nemožné? Možná ne, podle nového výzkumu, který provedli vyšetřovatelé z Kalifornské univerzity v Berkeley.
V roce 2014 výzkumník Brian Pasley a jeho kolegové použili algoritmus hlubokého učení a mozkovou aktivitu měřenou elektrodami, aby přeměnili myšlenky člověka na digitálně syntetizovanou řeč. Toho bylo dosaženo analýzou mozkových vln člověka, když mluvil, aby se dekódovalo spojení mezi řečí a mozkovou aktivitou.
Doporučená videa
Posuňte se o několik let dopředu a tým nyní vylepšil dřívější výzkum a aplikoval své poznatky na hudbu. Konkrétně byli schopni přesně (o 50 procent přesněji než předchozí studie) předpovědět, na jaké zvuky pianista myslí, na základě mozkové aktivity.
Příbuzný
- Může A.I. porazit lidské inženýry při navrhování mikročipů? Google si to myslí
- Algoritmická architektura: Měli bychom nechat A.I. navrhovat budovy pro nás?
- Proč učit roboty hrát na schovávanou by mohlo být klíčem k next-gen A.I.
„Během sluchového vnímání, když posloucháte zvuky, jako je řeč nebo hudba, to víme jistě části sluchové kůry tyto zvuky rozkládají na akustické frekvence — například nízké nebo vysoké tóny,“ Pasley řekl Digital Trends. „Testovali jsme, zda tyto stejné oblasti mozku zpracovávají také představované zvuky stejným způsobem, jakým vnitřně verbalizujete zvuk svého vlastního hlasu nebo si představujete zvuk klasické hudby v tiché místnosti. Zjistili jsme, že existuje velké překrývání, ale také výrazné rozdíly v tom, jak mozek reprezentuje zvuk představované hudby. Vytvořením modelu strojového učení neurální reprezentace představovaného zvuku jsme použili model k odhadu s přiměřenou přesností, jaký zvuk byl v každém okamžiku představován."
Pro studii tým zaznamenal mozkovou aktivitu pianisty, když hrál hudbu na elektrické klávesnici. Tímto způsobem byli schopni sladit jak mozkové vzorce, tak zahrané noty. Poté provedli experiment znovu, ale vypnuli zvuk klaviatury a požádali hudebníka, aby si představil noty, jak na ně hraje. Toto školení jim umožnilo vytvořit svůj algoritmus pro předpovídání hudby.
„Dlouhodobým cílem našeho výzkumu je vyvinout algoritmy pro řečovou protetiku, která by obnovila komunikaci u paralyzovaných jedinců, kteří nejsou schopni mluvit,“ řekl Pasley. „Jsme daleko od realizace tohoto cíle, ale tato studie představuje důležitý krok vpřed. Ukazuje, že nervový signál během sluchového zobrazování je dostatečně robustní a přesný pro použití v algoritmech strojového učení, které mohou předpovídat akustické signály z měřeného mozku aktivita."
Papír popisující práci byl nedávno publikované v časopise Cerebral Cortex.
Doporučení redakce
- Zde je to, co A.I. si myslí, že to bude další velká věc v technice
- Přečtěte si děsivě krásné ‚syntetické písmo‘ A.I. který si myslí, že je to Bůh
- Snímání emocí A.I. je tady a mohlo by to být na vašem příštím pracovním pohovoru
- Vědci používají A.I. vytvořit umělý lidský genetický kód
- BigSleep A.I. je jako Google Image Search pro obrázky, které ještě neexistují
Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.