De fleste av oss har brukt apper som Shazam, som kan identifisere sanger når vi holder telefonen opp mot en høyttaler. Men hva om det var mulig for en app å identifisere et musikkstykke basert på ikke annet enn tankemønstrene dine. Umulig? Kanskje ikke, ifølge et nytt stykke forskning utført av etterforskere ved University of California, Berkeley.
I 2014 brukte forsker Brian Pasley og kolleger en dyplæringsalgoritme og hjerneaktivitet, målt med elektroder, for å gjøre en persons tanker om til digitalt syntetisert tale. Dette ble oppnådd ved å analysere en persons hjernebølger mens de snakket for å dekode koblingen mellom tale og hjerneaktivitet.
Anbefalte videoer
Hopp frem noen år, og teamet har nå forbedret den tidligere forskningen og brukt funnene sine på musikk. Nærmere bestemt var de i stand til nøyaktig (50 prosent mer nøyaktig enn den forrige studien) å forutsi hvilke lyder en pianist tenker på, basert på hjerneaktivitet.
I slekt
- Kan A.I. slå menneskelige ingeniører med å designe mikrobrikker? Google mener det
- Algoritmisk arkitektur: Bør vi la A.I. designe bygninger for oss?
- Hvorfor lære roboter å leke gjemsel kan være nøkkelen til neste generasjons A.I.
"Under auditiv persepsjon, når du lytter til lyder som tale eller musikk, vet vi det sikkert deler av den auditive cortex dekomponerer disse lydene til akustiske frekvenser - for eksempel lav eller høy toner," Pasley fortalte Digital Trends. "Vi testet om disse samme hjerneområdene også behandler innbilte lyder på samme måte som du internt verbaliserer lyden av din egen stemme, eller forestiller deg lyden av klassisk musikk i et stille rom. Vi fant at det var stor overlapping, men også tydelige forskjeller i hvordan hjernen representerer lyden av innbilt musikk. Ved å bygge en maskinlæringsmodell av den nevrale representasjonen av forestilt lyd, brukte vi modellen til å gjette med rimelig nøyaktighet hvilken lyd som ble forestilt på hvert øyeblikk.»
For studien registrerte teamet en pianists hjerneaktivitet da han spilte musikk på et elektrisk keyboard. Ved å gjøre dette var de i stand til å matche både hjernemønstrene og tonene som ble spilt. De utførte deretter eksperimentet på nytt, men slo av lyden på tastaturet og ba musikeren om å forestille seg tonene mens han spilte dem. Denne opplæringen tillot dem å lage sin musikkforutsigende algoritme.
"Det langsiktige målet med vår forskning er å utvikle algoritmer for en taleproteseanordning for å gjenopprette kommunikasjon hos lammede individer som ikke er i stand til å snakke," sa Pasley. – Vi er ganske langt fra å nå det målet, men denne studien representerer et viktig skritt fremover. Det viser at det nevrale signalet under auditive bilder er tilstrekkelig robust og presis for bruk i maskinlæringsalgoritmer som kan forutsi akustiske signaler fra målt hjerne aktivitet."
Et papir som beskriver arbeidet var nylig publisert i tidsskriftet Cerebral Cortex.
Redaktørenes anbefalinger
- Her er hva en trendanalyserende A.I. tror vil bli den neste store tingen innen teknologi
- Les den uhyggelig vakre 'syntetiske skriften' til en A.I. som tror det er Gud
- Følelsesfølende A.I. er her, og det kan være i ditt neste jobbintervju
- Forskere bruker A.I. å lage kunstig menneskelig genetisk kode
- The BigSleep A.I. er som Google Bildesøk etter bilder som ikke eksisterer ennå
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.