La création musicale est de plus en plus numérisée ici en 2020, mais certains effets audio analogiques sont encore très difficiles à reproduire de cette manière. L’un de ces effets est le genre de distorsion de guitare hurlante privilégiée par les dieux du rock du monde entier. Jusqu’à présent, ces effets, qui impliquent des amplificateurs de guitare, étaient pratiquement impossibles à recréer numériquement.
Cela a maintenant changé grâce aux travaux de chercheurs du département de traitement du signal et d’acoustique de l’Université Aalto en Finlande. Grâce à l'intelligence artificielle (IA) d'apprentissage profond, ils ont créé un réseau neuronal pour la guitare une modélisation de distorsion qui, pour la première fois, peut tromper les auditeurs en testant à l'aveugle en leur faisant croire qu'il s'agit du véritable article. Pensez-y comme à un Test de Turing, coudé jusqu'à un style Spinal Tap 11.
Vidéos recommandées
« Depuis des décennies, les chercheurs en audio croient généralement que l'imitation précise du son déformé des amplificateurs de guitare à lampes est très difficile. »
Professeur Vesa Välimäki a déclaré à Digital Trends. « L’une des raisons est que la distorsion est liée au comportement dynamique non linéaire, qui est connu pour être difficile à simuler, même théoriquement. Une autre raison peut être que les sons de guitare déformés sont généralement très présents dans la musique, il semble donc difficile d'y cacher des problèmes; toutes les inexactitudes seront très visibles.Pour entraîner le réseau neuronal à recréer une variété d’effets de distorsion, il suffit de quelques minutes d’audio enregistré à partir de l’amplificateur cible. Les chercheurs ont utilisé un son « propre » enregistré à partir d’une guitare électrique dans un chambre anéchoïque, puis je l'ai fait passer par un amplificateur. Cela fournissait à la fois une entrée sous la forme d’un son de guitare sans défaut et une sortie sous la forme de la sortie de l’amplificateur de guitare « cible » correspondante.
« La formation se fait en alimentant le réseau neuronal avec un court segment d'audio de guitare clair et en comparant la sortie du réseau à la sortie du réseau. sortie de l’amplificateur « cible » », a déclaré à Digital Trends Alec Wright, un doctorant spécialisé dans le traitement audio utilisant l’apprentissage en profondeur. « Cette comparaison est effectuée dans la « fonction de perte », qui est simplement une équation qui représente dans quelle mesure la la sortie du réseau neuronal provient de la sortie cible, ou, à quel point la prédiction du modèle de réseau neuronal est « fausse » était. La clé est un processus appelé « descente de gradient », dans lequel vous calculez comment ajuster le réseau neuronal. paramètres très légèrement, de sorte que la prédiction du réseau neuronal soit légèrement plus proche de celle de l'amplificateur cible. sortir. Ce processus est ensuite répété des milliers de fois – ou parfois beaucoup plus – jusqu’à ce que le rendement du réseau neuronal cesse de s’améliorer.
Vous pouvez consulter une démo de l'A.I. en action sur search.spa.aalto.fi/publications/articles/applicationsprofond/. Un document décrivant le travail a été récemment publié dans la revue Applied Sciences.
Recommandations des rédacteurs
- Les illusions d'optique pourraient nous aider à construire la prochaine génération d'IA
- Une IA analogique? Ça paraît fou, mais ça pourrait être l'avenir
- La dernière A.I. de Nvidia les résultats prouvent qu'ARM est prêt pour le centre de données
- Nvidia abaisse la barrière à l’entrée dans l’IA avec Fleet Command et LaunchPad
- L’IA peut-elle battre les ingénieurs humains dans la conception de micropuces? Google le pense
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.