Mind-Reading A.I. Kan finde ud af hvilken musik der spiller i dit hoved

De fleste af os har brugt apps som Shazam, som kan identificere sange, når vi holder vores telefon op mod en højttaler. Men hvad nu hvis det var muligt for en app at identificere et stykke musik baseret på intet andet end dine tankemønstre. Umulig? Måske ikke, ifølge et nyt stykke forskning udført af efterforskere ved University of California, Berkeley.

I 2014 brugte forsker Brian Pasley og kolleger en dyb-læringsalgoritme og hjerneaktivitet, målt med elektroder, til at omdanne en persons tanker til digitalt syntetiseret tale. Dette blev opnået ved at analysere en persons hjernebølger, mens de talte, for at afkode forbindelsen mellem tale og hjerneaktivitet.

Anbefalede videoer

Hop frem et par år, og holdet har nu forbedret den tidligere forskning og anvendt deres resultater til musik. Specifikt var de i stand til præcist (50 procent mere præcist end den tidligere undersøgelse) at forudsige, hvilke lyde en pianist tænker på, baseret på hjerneaktivitet.

Relaterede

  • Kan A.I. slå menneskelige ingeniører ved at designe mikrochips? Det mener Google
  • Algoritmisk arkitektur: Skal vi lade A.I. designe bygninger for os?
  • Hvorfor lære robotter at lege gemmeleg kunne være nøglen til næste generations A.I.

"Under auditiv perception, når du lytter til lyde som tale eller musik, ved vi det med sikkerhed dele af den auditive cortex nedbryder disse lyde til akustiske frekvenser - for eksempel lav eller høj toner," Pasley fortalte Digital Trends. "Vi testede, om de samme hjerneområder også behandler forestillede lyde på samme måde, som du internt verbaliserer lyden af ​​din egen stemme, eller forestiller dig lyden af ​​klassisk musik i et stille rum. Vi fandt ud af, at der var stort overlap, men også tydelige forskelle i, hvordan hjernen repræsenterer lyden af ​​forestillet musik. Ved at bygge en maskinlæringsmodel af den neurale repræsentation af forestillet lyd, brugte vi modellen til med rimelig nøjagtighed at gætte, hvilken lyd der blev forestillet på hvert tidspunkt."

Til undersøgelsen optog holdet en pianists hjerneaktivitet, da han spillede musik på et elektrisk keyboard. Ved at gøre dette var de i stand til at matche både hjernemønstrene og de spillede toner. De udførte derefter eksperimentet igen, men slukkede for lyden af ​​keyboardet og bad musikeren om at forestille sig tonerne, mens han spillede dem. Denne træning gav dem mulighed for at skabe deres musikforudsigende algoritme.

"Det langsigtede mål med vores forskning er at udvikle algoritmer til en taleproteseanordning for at genoprette kommunikationen hos lammede personer, der ikke er i stand til at tale," sagde Pasley. ”Vi er ret langt fra at realisere det mål, men denne undersøgelse repræsenterer et vigtigt skridt fremad. Det viser, at det neurale signal under auditive billeder er tilstrækkeligt robust og præcist til brug i maskinlæringsalgoritmer, der kan forudsige akustiske signaler fra målt hjerne aktivitet."

Et papir, der beskriver arbejdet var for nylig offentliggjort i tidsskriftet Cerebral Cortex.

Redaktørens anbefalinger

  • Her er hvad en trendanalyserende A.I. tror, ​​vil være den næste store ting inden for tech
  • Læs det uhyggeligt smukke 'syntetiske skrift' af en A.I. der tror, ​​det er Gud
  • Følelsesfølende A.I. er her, og det kan blive til din næste jobsamtale
  • Forskere bruger A.I. at skabe kunstig menneskelig genetisk kode
  • The BigSleep A.I. er ligesom Google Billedsøgning efter billeder, der ikke eksisterer endnu

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.