Deep Learning A.I. Kan imitere lyden av ikoniske gitarforsterkere

Musikkproduksjon blir stadig mer digitalisert her i 2020, men enkelte analoge lydeffekter er fortsatt svært vanskelige å reprodusere på denne måten. En av disse effektene er den typen skrikende gitarforvrengning som favoriseres av rockeguder overalt. Til nå har disse effektene, som involverer gitarforsterkere, vært nesten umulig å gjenskape digitalt.

Det er nå endret takket være arbeidet til forskere ved avdelingen for signalbehandling og akustikk ved Aalto-universitetet i Finland. Ved å bruke deep learning kunstig intelligens (A.I.) har de laget et nevralt nettverk for gitar forvrengningsmodellering som for første gang kan lure blindtestlyttere til å tro at det er ekte artikkel. Tenk på det som en Turing test, sveivet helt opp til en Spınal Tap-stil 11.

Anbefalte videoer

"Det har vært den generelle oppfatningen til lydforskere i flere tiår at nøyaktig imitasjon av den forvrengte lyden til rørgitarforsterkere er veldig utfordrende," Professor Vesa Välimäki fortalte Digital Trends. "En grunn er at forvrengningen er relatert til dynamisk ikke-lineær atferd, som er kjent for å være vanskelig å simulere selv teoretisk. En annen grunn kan være at forvrengte gitarlyder vanligvis er ganske fremtredende i musikk, så det ser ut til å være vanskelig å skjule problemer der; alle unøyaktigheter vil være veldig merkbare."

guitar_amp_in_anechoic_chamber_26-1-2020_photo_mikko_raskinen_006 1
Forskere spilte inn gitareffektene i et spesielt ekkofritt kammer.Mikko Raskinen

For å trene det nevrale nettverket til å gjenskape en rekke forvrengningseffekter, er alt som trengs noen få minutter med lyd tatt opp fra målforsterkeren. Forskerne brukte "ren" lyd tatt opp fra en elektrisk gitar i en ekkofritt kammer, og deretter kjørte den gjennom en forsterker. Dette ga både en inngang i form av den plettfrie gitarlyden, og en utgang i form av den tilsvarende "mål" gitarforsterkeren.

"Trening gjøres ved å mate det nevrale nettverket med et kort segment med ren gitarlyd, og sammenligne nettverkets utgang med "mål" forsterkerutgang," fortalte Alec Wright, en doktorgradsstudent med fokus på lydbehandling ved hjelp av dyp læring, til Digital Trends. "Denne sammenligningen er gjort i 'tapsfunksjonen', som ganske enkelt er en ligning som representerer hvor langt nevrale nettverksutgang er fra målutgangen, eller hvor "feil" nevrale nettverksmodellens prediksjon var. Nøkkelen er en prosess kalt "gradient descent", der du beregner hvordan du justerer det nevrale nettverkets parametere veldig lite, slik at nevrale nettverks prediksjon er litt nærmere målforsterkerens produksjon. Denne prosessen gjentas deretter tusenvis av ganger – eller noen ganger mye mer – til det nevrale nettverkets utgang slutter å forbedre seg.»

Du kan sjekke ut en demo av A.I. i aksjon på research.spa.aalto.fi/publikasjoner/papirer/appsci-dyp/. Et papir som beskriver arbeidet var nylig publisert i tidsskriftet Applied Sciences.

Redaktørenes anbefalinger

  • Optiske illusjoner kan hjelpe oss med å bygge neste generasjon AI
  • Analog A.I.? Det høres sprøtt ut, men det kan være fremtiden
  • Nvidias siste A.I. resultater viser at ARM er klar for datasenteret
  • Nvidia senker barrieren for inntreden i A.I. med Fleet Command og LaunchPad
  • Kan A.I. slå menneskelige ingeniører med å designe mikrobrikker? Google mener det

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.