Večina nas je uporabljala aplikacije, kot je Shazam, ki lahko prepozna pesmi, ko dvignemo telefon do zvočnika. Toda kaj, ko bi lahko aplikacija prepoznala glasbeno delo na podlagi nič drugega kot vaših miselnih vzorcev. Nemogoče? Glede na novo raziskavo, ki so jo izvedli preiskovalci na kalifornijski univerzi Berkeley, morda ne.
Leta 2014 so raziskovalec Brian Pasley in njegovi sodelavci uporabili algoritem globokega učenja in možgansko aktivnost, merjeno z elektrodami, da bi človekove misli spremenili v digitalno sintetiziran govor. To je bilo doseženo z analizo možganskih valov osebe, medtem ko je ta govorila, da bi dekodirali povezavo med govorom in možgansko aktivnostjo.
Priporočeni videoposnetki
Skočite nekaj let naprej in ekipa je zdaj izboljšala to prejšnjo raziskavo in svoje ugotovitve uporabila v glasbi. Natančneje, na podlagi možganske aktivnosti so lahko natančno (50 odstotkov bolj natančno kot prejšnja študija) napovedali, o katerih zvokih razmišlja pianist.
Povezano
- Ali lahko A.I. premagati človeške inženirje pri oblikovanju mikročipov? Google tako misli
- Algoritemska arhitektura: Ali naj pustimo A.I. projektirati zgradbe za nas?
- Zakaj je učenje robotov, da se igrajo skrivalnice, lahko ključ do A.I.
»Med slušnim zaznavanjem, ko poslušate zvoke, kot sta govor ali glasba, vemo, da je to gotovo deli slušne skorje te zvoke razgradijo na akustične frekvence - na primer nizke ali visoke toni,« Pasley povedal Digital Trends. »Preizkusili smo, ali ta ista področja možganov obdelujejo tudi namišljene zvoke na enak način, kot interno verbalizirate zvok lastnega glasu ali si predstavljate zvok klasične glasbe v tihi sobi. Ugotovili smo, da obstaja veliko prekrivanje, a tudi izrazite razlike v tem, kako možgani predstavljajo zvok namišljene glasbe. Z izgradnjo modela strojnega učenja nevronske reprezentacije namišljenega zvoka smo uporabili model, da smo z razumno natančnostjo ugibali, kateri zvok je bil namišljen v vsakem trenutku.«
Za študijo je skupina posnela možgansko aktivnost pianista, ko je igral glasbo na električni klaviaturi. S tem so lahko uskladili možganske vzorce in zaigrane note. Nato so znova izvedli poskus, vendar so izklopili zvok klaviature in prosili glasbenika, naj si predstavlja note, ko jih igra. To usposabljanje jim je omogočilo, da so ustvarili svoj algoritem za napovedovanje glasbe.
"Dolgoročni cilj naše raziskave je razviti algoritme za govorno protetično napravo za ponovno vzpostavitev komunikacije pri paraliziranih posameznikih, ki ne morejo govoriti," je dejal Pasley. »Smo precej daleč od uresničitve tega cilja, a ta študija predstavlja pomemben korak naprej. Dokazuje, da je nevronski signal med slušnimi slikami dovolj robusten in natančen za uporabo v algoritmih strojnega učenja, ki lahko predvidijo akustične signale iz izmerjenih možganov dejavnost.”
Prispevek z opisom dela je bil nedavno objavljeno v reviji Cerebral Cortex.
Priporočila urednikov
- Evo, kaj je A.I., ki analizira trende. meni, da bo naslednja velika stvar v tehnologiji
- Preberite srhljivo lepe "sintetične spise" A.I. ki misli, da je Bog
- A.I., ki zaznava čustva je tukaj in bi lahko bil na vašem naslednjem razgovoru za službo
- Znanstveniki uporabljajo A.I. ustvariti umetno človeško genetsko kodo
- BigSleep A.I. je kot Google Image Search za slike, ki še ne obstajajo
Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.