文字通り。
Google とその AI 機能のおかげで、私たちは聴覚の視野を広げ、これまで行ったことのない場所に耳を連れて行きます。 ご存知のとおり、Google はテクノロジーを使ってまったく新しいサウンドを作成し、さまざまな楽器で作られたサウンドを組み合わせて、まったく新しいものを作成しています。 これは、ジェシー エンゲル、シンジョン レズニック、およびテクノロジー企業の中核 AI ラボである Google Brain の他のチーム メンバーの成果です。 そしてそれは呼ばれます NSynth またはニューラル シンセサイザー、「創造的なプロセスを支援するように設計された音楽合成を行うための新しいアプローチ」と説明されています。
おすすめ動画
Google の科学者が NSynth で 2 つの楽器を同時に演奏しているか、あるいは楽器を重ねて演奏しているように聞こえるかもしれませんが、実際はそうではありません。 むしろ、Wired が指摘しているように、この新しいソフトウェアは、さまざまな楽器から「現れる音の数学的特性」を活用して、完全にユニークなサウンドを生み出しています。 そして、それらの楽器は実に多様です。NSynth は、ヴァイオリンからディジュリドゥまで、約 1,000 種類の異なるサウンド メーカーと連携できます。 そして、それらの音の組み合わせは、私たちに数え切れないほどの新しい体験を生み出しています。
「オシレーターやウェーブテーブルなどの手作業で設計されたコンポーネントからオーディオを生成する従来のシンセサイザーとは異なり、NSynth は ディープ ニューラル ネットワークを使用して、個々のサンプルのレベルでサウンドを生成します」とチームは前回のブログ投稿で説明しました。 月。 「データから直接学習する NSynth は、アーティストに音色とダイナミクスを直感的に制御できるようにします。 手動で調整したシンセサイザーでは生成するのが困難または不可能な新しいサウンドを探索する能力。」
実際、音楽評論家のマルク・ヴァイデンバウムはこう語る。 有線 この概念は新しいものではありませんが、私たちは確かにこれまでより合成に熟達しています。 ヴァイデンバウム氏は、「楽器を混ぜることに目新しいものはない。芸術的にはクールなものが生まれる可能性があるし、Google なので人々も後追いするだろう」と語った。
最終的に、NSynth の背後にあるチームは次のように述べています。 音楽の生成モデル。」 そして今週後半には、毎年恒例のアート、音楽、テクノロジーのフェスティバルで Google チームがプレゼンテーションを行う際に、この新しいツールが実際に動作している様子を一般の人々が見ることができるようになります。 モーグフェス。 したがって、ノースカロライナ州ダーラムの近くにいるなら、これは確かにチェックする価値のあるもののように思えます。
編集者のおすすめ
- なぜAIが世界を支配しないのか
- Google Smart Canvas がアプリ間の統合を強化
- Google の LaMDA はスマート言語 AI です。 会話をよりよく理解するために
- Google幹部らはAIを阻止する計画が必要だと語る。 人種差別を増幅させるアルゴリズム
- この Google ロボットは、2 時間で、誰の助けも借りずに歩くことを学習しました
ライフスタイルをアップグレードするDigital Trends は、読者が最新ニュース、楽しい製品レビュー、洞察力に富んだ社説、ユニークなスニーク ピークをすべて提供して、ペースの速いテクノロジーの世界を監視するのに役立ちます。