Mind-Reading A.I. Kan räkna ut vilken musik som spelar i ditt huvud

De flesta av oss har använt appar som Shazam, som kan identifiera låtar när vi håller upp telefonen mot en högtalare. Men tänk om det var möjligt för en app att identifiera ett musikstycke baserat på inget annat än dina tankemönster. Omöjlig? Kanske inte, enligt en ny forskning utförd av utredare vid University of California, Berkeley.

2014 använde forskaren Brian Pasley och kollegor en algoritm för djupinlärning och hjärnaktivitet, mätt med elektroder, för att förvandla en persons tankar till digitalt syntetiserat tal. Detta uppnåddes genom att analysera en persons hjärnvågor medan de pratade för att avkoda kopplingen mellan tal och hjärnaktivitet.

Rekommenderade videor

Hoppa framåt några år, och teamet har nu förbättrat den tidigare forskningen och tillämpat sina resultat på musik. Specifikt kunde de exakt (50 procent mer exakt än den tidigare studien) förutsäga vilka ljud en pianist tänker på, baserat på hjärnaktivitet.

Relaterad

  • Kan A.I. slå mänskliga ingenjörer vid design av mikrochips? Google tycker det
  • Algoritmisk arkitektur: Ska vi låta A.I. designa byggnader åt oss?
  • Varför lära robotar att leka kurragömma kan vara nyckeln till nästa generations A.I.

"När du lyssnar på ljud som tal eller musik under auditiv uppfattning vet vi det med säkerhet delar av hörselbarken bryter ner dessa ljud till akustiska frekvenser - till exempel låga eller höga toner," Pasley berättade för Digital Trends. "Vi testade om samma hjärnområden också bearbetar föreställda ljud på samma sätt som du internt verbaliserar ljudet av din egen röst, eller föreställer dig ljudet av klassisk musik i ett tyst rum. Vi fann att det fanns stor överlappning, men också tydliga skillnader i hur hjärnan representerar ljudet av föreställd musik. Genom att bygga en maskininlärningsmodell av den neurala representationen av föreställt ljud, använde vi modellen för att med rimlig noggrannhet gissa vilket ljud som föreställdes vid varje ögonblick.

För studien spelade teamet in en pianists hjärnaktivitet när han spelade musik på ett elektriskt klaviatur. Genom att göra detta kunde de matcha både hjärnmönstren och de spelade tonerna. De utförde sedan experimentet igen, men stängde av ljudet på klaviaturen och bad musikern att föreställa sig tonerna när han spelade dem. Denna utbildning gjorde det möjligt för dem att skapa sin musikförutsägande algoritm.

"Det långsiktiga målet med vår forskning är att utveckla algoritmer för en talprotesanordning för att återställa kommunikationen hos förlamade individer som inte kan tala," sa Pasley. ”Vi är ganska långt ifrån att uppnå det målet, men den här studien är ett viktigt steg framåt. Det visar att den neurala signalen under hörselbilder är tillräckligt robust och exakt för användning i maskininlärningsalgoritmer som kan förutsäga akustiska signaler från uppmätt hjärna aktivitet."

Ett papper som beskrev arbetet var nyligen publicerad i tidskriften Cerebral Cortex.

Redaktörens rekommendationer

  • Här är vad en trendanalyserande A.I. tror kommer att bli nästa stora grej inom teknik
  • Läs den kusligt vackra "syntetiska skriften" av en A.I. som tror att det är Gud
  • Känslokännande A.I. är här, och det kan vara i din nästa anställningsintervju
  • Forskare använder A.I. att skapa artificiell mänsklig genetisk kod
  • The BigSleep A.I. är som Google Bildsökning efter bilder som inte finns ännu

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.