Googles NSynth-Projekt erschafft brandneue Sounds

Google Earth
Julian Chokkattu/Digitale Trends
So etwas haben Sie noch nie gehört.

Buchstäblich.

Dank Google und seinen KI-Fähigkeiten erweitern wir unseren Hörhorizont und führen unsere Ohren an Orte, an denen sie noch nie zuvor waren. Sie sehen, Google erzeugt mit Technologie völlig neue Klänge, indem es die Klänge verschiedener Instrumente kombiniert und etwas völlig Neues schafft. Es ist die Arbeit von Jessie Engel, Cinjon Resnick und anderen Teammitgliedern von Google Brain, dem zentralen KI-Labor des Technologieunternehmens. Und es heißt NSynth oder neuronaler Synthesizer, beschrieben als „ein neuartiger Ansatz zur Musiksynthese, der den kreativen Prozess unterstützen soll.“

Empfohlene Videos

Auch wenn es sich anhört, als ob die Google-Wissenschaftler mit NSynth zwei Instrumente gleichzeitig spielen oder vielleicht Instrumente übereinander legen, ist das in Wirklichkeit nicht der Fall. Vielmehr erzeugt diese neue Software, wie Wired feststellt, völlig einzigartige Klänge, indem sie „die mathematischen Eigenschaften der Noten nutzt, die von verschiedenen Instrumenten erzeugt werden“. Und diese Instrumente sind in der Tat vielfältig – NSynth kann mit rund 1.000 verschiedenen Klangerzeugern zusammenarbeiten, von Geigen bis hin zu Didgeridoos. Und die Kombinationen dieser Klänge schaffen unzählige neue Erlebnisse, mit denen wir rechnen müssen.

„Im Gegensatz zu einem herkömmlichen Synthesizer, der Audio aus handgefertigten Komponenten wie Oszillatoren und Wavetables erzeugt, ist NSynth nutzt tiefe neuronale Netze, um Klänge auf der Ebene einzelner Samples zu erzeugen“, erklärte das Team zuletzt in einem Blogbeitrag Monat. „NSynth lernt direkt aus Daten und bietet Künstlern eine intuitive Kontrolle über Klangfarbe und Dynamik Fähigkeit, neue Klänge zu erforschen, die mit einem handgestimmten Synthesizer nur schwer oder gar nicht zu erzeugen wären.“

Tatsächlich erzählt der Musikkritiker Marc Weidenbaum Verdrahtet dass dieses Konzept nichts Neues ist, obwohl wir in der Synthese sicherlich geschickter sind als je zuvor. „Die Verschmelzung von Instrumenten ist nichts Neues“, sagte Weidenbaum. „Künstlerisch könnte es einige coole Sachen hervorbringen, und weil es Google ist, werden die Leute ihrem Beispiel folgen.“

Letztendlich stellt das Team hinter NSynth fest: „Wir wollten ein kreatives Werkzeug für Musiker entwickeln und auch eine neue Herausforderung für die Community des maschinellen Lernens bieten, um die Forschung anzukurbeln.“ generative Modelle für Musik.“ Und später in dieser Woche wird die Öffentlichkeit dieses neue Tool in Aktion sehen können, wenn das Google-Team es auf dem jährlichen Kunst-, Musik- und Technologiefestival präsentiert Moogfest. Wenn Sie sich also in der Nähe von Durham, North Carolina, aufhalten, ist dies auf jeden Fall einen Besuch wert.

Empfehlungen der Redaktion

  • Warum KI niemals die Welt beherrschen wird
  • Google Smart Canvas sorgt für eine tiefere Integration zwischen Apps
  • Googles LaMDA ist eine intelligente Sprach-KI. zum besseren Verständnis des Gesprächs
  • Google-Manager sagen, wir brauchen einen Plan, um KI zu stoppen. Algorithmen verhindern, dass Rassismus verstärkt wird
  • Dieser Google-Roboter hat sich das Laufen selbst beigebracht, ohne jegliche Hilfe, in zwei Stunden

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.