Suurin osa meistä on käyttänyt sovelluksia, kuten Shazam, joka voi tunnistaa kappaleet, kun nostamme puhelinta kaiuttimelle. Mutta entä jos sovellus voisi tunnistaa musiikkikappaleen vain ajatusmalliesi perusteella. Mahdotonta? Ehkä ei, Kalifornian Berkeleyn yliopiston tutkijoiden tekemän uuden tutkimuksen mukaan.
Vuonna 2014 tutkija Brian Pasley ja kollegat käyttivät syväoppimisalgoritmia ja elektrodeilla mitattua aivotoimintaa muuttaakseen ihmisen ajatukset digitaalisesti syntetisoiduksi puheeksi. Tämä saavutettiin analysoimalla henkilön aivoaaltoja hänen puhuessaan puheen ja aivojen toiminnan välisen yhteyden purkamiseksi.
Suositellut videot
Hyppää muutama vuosi eteenpäin, ja tiimi on nyt parantanut aikaisempaa tutkimusta ja soveltanut havaintojaan musiikkiin. Erityisesti he pystyivät ennustamaan tarkasti (50 prosenttia tarkemmin kuin edellinen tutkimus) aivotoiminnan perusteella, mitä ääniä pianisti ajattelee.
Liittyvät
- Voiko A.I. päihittää ihmisinsinöörit mikrosirujen suunnittelussa? Google ajattelee niin
- Algoritminen arkkitehtuuri: Pitäisikö meidän antaa A.I. suunnitteletko rakennuksia meille?
- Miksi robottien opettaminen leikkimään piilosta voisi olla avain seuraavan sukupolven A.I: lle?
”Kuuluhavainnolla, kun kuuntelet ääniä, kuten puhetta tai musiikkia, tiedämme sen varman kuulokuoren osat hajottavat nämä äänet akustisiksi taajuuksiksi - esimerkiksi mataliksi tai korkeiksi sävyjä," Pasley kertoi Digital Trendsille. ”Testasimme, käsittelevätkö nämä samat aivoalueet myös kuviteltuja ääniä samalla tavalla kuin sisäisesti verbalisoit oman äänesi äänen tai kuvittelet klassisen musiikin äänen hiljaisessa huoneessa. Havaitsimme, että päällekkäisyyksiä oli suuria, mutta myös selkeitä eroja siinä, miten aivot edustavat kuvitellun musiikin ääntä. Rakentamalla koneoppimismallin kuvitellun äänen hermoesittelystä, käytimme mallia arvaamaan kohtuullisella tarkkuudella, mikä ääni kuviteltiin kullakin ajanhetkellä.
Tutkimusta varten ryhmä tallensi pianistin aivotoiminnan, kun hän soitti musiikkia sähkökoskettimella. Tekemällä tämän he pystyivät sovittamaan yhteen sekä aivomallit että soitettavat nuotit. Sitten he suorittivat kokeen uudelleen, mutta sammuttivat koskettimiston äänen ja pyysivät muusikkoa kuvittelemaan nuotit soittaessaan niitä. Tämä koulutus antoi heille mahdollisuuden luoda musiikin ennustava algoritmi.
"Tutkimuksemme pitkän aikavälin tavoitteena on kehittää algoritmeja puheproteesilaitteelle, joka palauttaa kommunikoinnin halvaantuneille henkilöille, jotka eivät pysty puhumaan", Pasley sanoi. "Olemme melko kaukana tämän tavoitteen toteuttamisesta, mutta tämä tutkimus on tärkeä askel eteenpäin. Se osoittaa, että hermosignaali kuulokuvien aikana on riittävän vankka ja tarkka käytettäväksi koneoppimisalgoritmeissa, jotka voivat ennustaa akustisia signaaleja mitatuista aivoista toiminta."
Työtä kuvaava paperi oli julkaistiin äskettäin Cerebral Cortex -lehdessä.
Toimittajien suositukset
- Tässä on trendejä analysoiva A.I. uskoo olevan seuraava iso asia tekniikassa
- Lue aavemaisen kaunista A.I: n synteettistä kirjoitusta. joka luulee olevansa Jumala
- Tunteita tunnistava A.I. on täällä, ja se voi olla seuraavassa työhaastattelussasi
- Tutkijat käyttävät A.I. keinotekoisen ihmisen geneettisen koodin luomiseksi
- BigSleep A.I. on kuin Google-kuvahaku kuville, joita ei vielä ole olemassa
Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.