La produzione musicale è sempre più digitalizzata qui nel 2020, ma alcuni effetti audio analogici sono ancora molto difficili da riprodurre in questo modo. Uno di questi effetti è il tipo di distorsione stridente della chitarra preferita dagli dei del rock ovunque. Fino ad ora, questi effetti, che coinvolgono amplificatori per chitarra, erano quasi impossibili da ricreare digitalmente.
Ora le cose sono cambiate grazie al lavoro dei ricercatori del dipartimento di elaborazione del segnale e acustica dell’Università finlandese di Aalto. Utilizzando l'intelligenza artificiale (A.I.) con apprendimento profondo, hanno creato una rete neurale per la chitarra modello di distorsione che, per la prima volta, può ingannare gli ascoltatori alla cieca facendogli credere che sia autentico articolo. Pensalo come a Prova di Turing, a gomito fino allo Spinal Tap-style 11.
Video consigliati
“Per decenni è stata convinzione generale dei ricercatori audio che l’imitazione accurata del suono distorto degli amplificatori per chitarra a valvole sia molto impegnativa,”
Professor Vesa Välimäki ha detto a Digital Trends. “Uno dei motivi è che la distorsione è legata al comportamento dinamico non lineare, che è noto per essere difficile da simulare anche teoricamente. Un'altra ragione potrebbe essere che i suoni distorti della chitarra sono solitamente piuttosto importanti nella musica, quindi sembra difficile nascondere eventuali problemi; tutte le imprecisioni saranno molto evidenti.Per addestrare la rete neurale a ricreare una varietà di effetti di distorsione, tutto ciò che serve sono alcuni minuti di audio registrato dall'amplificatore target. I ricercatori hanno utilizzato l’audio “pulito” registrato da una chitarra elettrica in un Camera anecoica, e poi lo fece passare attraverso un amplificatore. Ciò forniva sia un ingresso sotto forma di suono di chitarra senza difetti, sia un'uscita sotto forma di uscita dell'amplificatore per chitarra “destinato” corrispondente.
“L’addestramento viene effettuato alimentando la rete neurale con un breve segmento di audio pulito di chitarra e confrontando l’output della rete con uscita dell’amplificatore “target””, ha detto a Digital Trends Alec Wright, uno studente di dottorato focalizzato sull’elaborazione audio utilizzando il deep learning. “Questo confronto viene effettuato nella “funzione di perdita”, che è semplicemente un’equazione che rappresenta fino a che punto l'output della rete neurale proviene dall'output target o quanto è "sbagliata" la previsione del modello di rete neurale era. La chiave è un processo chiamato “discesa del gradiente”, in cui si calcola come regolare la rete neurale parametri molto leggermente, in modo che la previsione della rete neurale sia leggermente più vicina a quella dell’amplificatore target produzione. Questo processo viene quindi ripetuto migliaia di volte – o talvolta molto di più – finché l’output della rete neurale non smette di migliorare”.
Puoi dare un'occhiata a una demo dell'A.I. in azione su Research.spa.aalto.fi/pubblicazioni/articoli/applicazioniprofondo/. Un documento che descriveva il lavoro era recentemente pubblicato sulla rivista Scienze Applicate.
Raccomandazioni degli editori
- Le illusioni ottiche potrebbero aiutarci a costruire la prossima generazione di intelligenza artificiale
- IA analogica? Sembra pazzesco, ma potrebbe essere il futuro
- L'ultima A.I. di Nvidia i risultati dimostrano che ARM è pronto per il data center
- Nvidia abbassa le barriere all'ingresso nell'A.I. con Fleet Command e LaunchPad
- L'A.I. battere gli ingegneri umani nella progettazione di microchip? Google la pensa così
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.