Većina nas je koristila aplikacije poput Shazama, koji može identificirati pjesme kada prinesemo telefon zvučniku. Ali što ako je bilo moguće da aplikacija identificira glazbeni komad na temelju ničeg drugog osim vaših obrazaca razmišljanja. Nemoguće? Možda i ne, prema novom istraživanju koje su proveli istraživači sa Sveučilišta Kalifornija, Berkeley.
Godine 2014. istraživač Brian Pasley i njegovi kolege upotrijebili su algoritam dubokog učenja i aktivnost mozga, mjerenu elektrodama, kako bi pretvorili nečije misli u digitalno sintetizirani govor. To je postignuto analizom moždanih valova osobe dok je govorila kako bi se dekodirala veza između govora i aktivnosti mozga.
Preporučeni videozapisi
Skočite nekoliko godina unaprijed i tim je sada poboljšao to ranije istraživanje i primijenio svoje nalaze na glazbu. Točnije, uspjeli su točno (50 posto točnije od prethodne studije) predvidjeti na koje zvukove pijanist misli, na temelju aktivnosti mozga.
Povezano
- Može li A.I. pobijediti ljudske inženjere u dizajniranju mikročipova? Google tako misli
- Algoritamska arhitektura: Trebamo li pustiti A.I. projektirati zgrade za nas?
- Zašto bi učenje robota igranju skrivača moglo biti ključ za AI sljedeće generacije
“Tijekom slušne percepcije, kada slušate zvukove poput govora ili glazbe, znamo da je to sigurno dijelovi slušnog korteksa razlažu te zvukove na akustične frekvencije — na primjer, niske ili visoke tonovi,” Pasley rekao je za Digital Trends. “Testirali smo obrađuju li ta ista područja mozga i zamišljene zvukove na isti način na koji interno verbalizirate zvuk vlastitog glasa ili zamišljate zvuk klasične glazbe u tihoj sobi. Otkrili smo da postoji veliko preklapanje, ali i jasne razlike u tome kako mozak predstavlja zvuk zamišljene glazbe. Izgradnjom modela strojnog učenja neuralne reprezentacije zamišljenog zvuka, upotrijebili smo model da s razumnom točnošću pogodimo koji je zvuk zamišljen u svakom trenutku u vremenu.”
Za potrebe studije tim je zabilježio moždanu aktivnost pijanista kada je svirao glazbu na električnoj klavijaturi. Čineći to, uspjeli su uskladiti i moždane obrasce i note koje su svirali. Zatim su ponovno izveli eksperiment, ali isključivši zvuk klavijature i tražeći od glazbenika da zamisli note dok ih svira. Ova obuka im je omogućila da stvore svoj algoritam za predviđanje glazbe.
"Dugoročni cilj našeg istraživanja je razviti algoritme za govornu protetiku za uspostavljanje komunikacije kod paraliziranih osoba koje ne mogu govoriti", rekao je Pasley. “Prilično smo daleko od ostvarenja tog cilja, ali ova studija predstavlja važan korak naprijed. Pokazuje da je neuralni signal tijekom slušnih slika dovoljno robustan i precizan za upotrebu u algoritmima strojnog učenja koji mogu predvidjeti akustične signale iz izmjerenog mozga aktivnost."
Rad koji opisuje rad bio je nedavno objavljen u časopisu Cerebral Cortex.
Preporuke urednika
- Evo što A.I. za analizu trendova. misli da će biti sljedeća velika stvar u tehnologiji
- Pročitajte jezivo lijepe 'sintetičke spise' umjetne inteligencije. koji misli da je Bog
- Umjetna inteligencija koja osjeća emocije je ovdje, a moglo bi biti na vašem sljedećem razgovoru za posao
- Znanstvenici koriste A.I. stvoriti umjetni ljudski genetski kod
- BigSleep A.I. je poput Google pretraživanja slika za slike koje još ne postoje
Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.