Das Musizieren wird hier im Jahr 2020 zunehmend digitalisiert, einige analoge Audioeffekte lassen sich auf diese Weise jedoch immer noch nur sehr schwer reproduzieren. Einer dieser Effekte ist die Art kreischender Gitarrenverzerrung, die von Rockgöttern überall bevorzugt wird. Bisher war es nahezu unmöglich, diese Effekte, bei denen Gitarrenverstärker zum Einsatz kommen, digital nachzubilden.
Das hat sich nun dank der Arbeit von Forschern der Abteilung für Signalverarbeitung und Akustik der finnischen Aalto-Universität geändert. Mithilfe von Deep-Learning-künstlicher Intelligenz (KI) haben sie ein neuronales Netzwerk für Gitarre geschaffen Verzerrungsmodellierung, die Blindtest-Hörern zum ersten Mal vorgaukeln kann, es handele sich um das Echte Artikel. Stellen Sie es sich wie ein vor Turing-Test, aufgedreht bis hin zu einem Spınal Tap-Stil 11.
Empfohlene Videos
„Es ist seit Jahrzehnten die allgemeine Überzeugung von Audioforschern, dass die genaue Nachahmung des verzerrten Klangs von Röhrengitarrenverstärkern eine große Herausforderung darstellt.“
Professor Vesa Välimäki sagte Digital Trends. „Ein Grund dafür ist, dass die Verzerrung mit dynamischem nichtlinearem Verhalten zusammenhängt, das bekanntermaßen selbst theoretisch schwer zu simulieren ist. Ein weiterer Grund könnte darin liegen, dass verzerrte Gitarrenklänge in der Musik meist recht ausgeprägt sind, sodass es schwierig erscheint, dort etwaige Probleme zu verbergen; Alle Ungenauigkeiten werden deutlich sichtbar sein.“Um das neuronale Netzwerk darauf zu trainieren, eine Vielzahl von Verzerrungseffekten nachzubilden, sind lediglich ein paar Minuten Audioaufnahme vom Zielverstärker erforderlich. Die Forscher verwendeten „sauberes“ Audio, das von einer E-Gitarre aufgenommen wurde schalltoter Raum, und ließ es dann durch einen Verstärker laufen. Dies lieferte sowohl einen Eingang in Form des makellosen Gitarrensounds als auch einen Ausgang in Form des entsprechenden „Ziel“-Gitarrenverstärkerausgangs.
„Das Training erfolgt, indem man dem neuronalen Netzwerk ein kurzes Segment sauberen Gitarren-Audios zuführt und den Ausgang des Netzwerks mit dem vergleicht ‚Ziel‘-Verstärkerausgang“, sagte Alec Wright, ein Doktorand, der sich auf Audioverarbeitung mithilfe von Deep Learning konzentriert, gegenüber Digital Trends. „Dieser Vergleich wird in der ‚Verlustfunktion‘ durchgeführt, die einfach eine Gleichung ist, die angibt, wie weit die Die Ausgabe des neuronalen Netzwerks entspricht der Zielausgabe oder wie „falsch“ die Vorhersage des Modells des neuronalen Netzwerks ist War. Der Schlüssel dazu ist ein Prozess namens „Gradientenabstieg“, bei dem Sie berechnen, wie die neuronalen Netzwerke angepasst werden Parameter sehr geringfügig, so dass die Vorhersage des neuronalen Netzwerks etwas näher an der des Zielverstärkers liegt Ausgabe. Dieser Vorgang wird dann tausende Male – manchmal sogar noch öfter – wiederholt, bis sich die Leistung des neuronalen Netzwerks nicht mehr verbessert.“
Sie können sich eine Demo der KI ansehen. in Aktion unter Research.spa.aalto.fi/Veröffentlichungen/Artikel/Anwendungentief/. Ein Papier, in dem die Arbeit beschrieben wurde, war kürzlich in der Zeitschrift Applied Sciences veröffentlicht.
Empfehlungen der Redaktion
- Optische Täuschungen könnten uns beim Aufbau der nächsten Generation der KI helfen
- Analoge KI? Es klingt verrückt, aber es könnte die Zukunft sein
- Nvidias neueste A.I. Die Ergebnisse beweisen, dass ARM bereit für das Rechenzentrum ist
- Nvidia senkt die Hürde für den Einstieg in die KI mit Fleet Command und LaunchPad
- Kann K.I. menschliche Ingenieure bei der Entwicklung von Mikrochips schlagen? Google glaubt es
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.