Musikproduktion er i stigende grad digitaliseret her i 2020, men nogle analoge lydeffekter er stadig meget svære at gengive på denne måde. En af disse effekter er den slags skrigende guitarforvrængning, som rockguder foretrækker overalt. Indtil nu har disse effekter, som involverer guitarforstærkere, været nærmest umulige at genskabe digitalt.
Det er nu ændret takket være arbejdet fra forskere i afdelingen for signalbehandling og akustik ved Finlands Aalto Universitet. Ved hjælp af deep learning kunstig intelligens (A.I.) har de skabt et neuralt netværk til guitar forvrængningsmodellering, der for første gang kan narre blindtestlyttere til at tro, at det er ægte artikel. Tænk på det som en Turing test, drejet helt op til en Spinal Tap-stil 11.
Anbefalede videoer
"Det har været den generelle overbevisning blandt lydforskere i årtier, at den nøjagtige efterligning af den forvrængede lyd fra rørguitarforstærkere er meget udfordrende." Professor Vesa Välimäki fortalte Digital Trends. "En grund er, at forvrængningen er relateret til dynamisk ikke-lineær adfærd, som er kendt for at være svær at simulere selv teoretisk. En anden grund kan være, at forvrængede guitarlyde normalt er ret fremtrædende i musik, så det ser ud til at være svært at skjule problemer der; alle unøjagtigheder vil være meget mærkbare."
For at træne det neurale netværk til at genskabe en række forskellige forvrængningseffekter er det eneste, der skal til, nogle få minutters lyd optaget fra målforstærkeren. Forskerne brugte "ren" lyd optaget fra en elektrisk guitar i et lydløst kammer, og derefter kørte den gennem en forstærker. Dette gav både et input i form af den plettede guitarlyd og et output i form af det tilsvarende "target" guitarforstærker output.
"Træning udføres ved at tilføre det neurale netværk et kort segment af ren guitarlyd og sammenligne netværkets output med 'mål' forstærkerudgang," fortalte Alec Wright, en doktorand med fokus på lydbehandling ved hjælp af dyb læring, til Digital Trends. "Denne sammenligning er lavet i 'tabsfunktionen', som simpelthen er en ligning, der repræsenterer, hvor langt neurale netværksoutput er fra måloutput, eller hvor "forkert" neurale netværksmodellens forudsigelse var. Nøglen er en proces kaldet 'gradient descent', hvor du beregner, hvordan du justerer det neurale netværks parametre meget lidt, så det neurale netværks forudsigelse er lidt tættere på målforstærkerens produktion. Denne proces gentages derefter tusindvis af gange - eller nogle gange meget mere - indtil det neurale netværks output holder op med at forbedres."
Du kan se en demo af A.I. i aktion på research.spa.aalto.fi/publikationer/papirer/appsci-dyb/. Et papir, der beskriver arbejdet var for nylig offentliggjort i tidsskriftet Applied Sciences.
Redaktørens anbefalinger
- Optiske illusioner kan hjælpe os med at bygge den næste generation af kunstig intelligens
- Analog A.I.? Det lyder skørt, men det er måske fremtiden
- Nvidias seneste A.I. resultater viser, at ARM er klar til datacentret
- Nvidia sænker barrieren for adgang til A.I. med Fleet Command og LaunchPad
- Kan A.I. slå menneskelige ingeniører ved at designe mikrochips? Det mener Google
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.