Stanfords A.I. Ser på dempet animasjon, spiller lyden den ville lage

click fraud protection

[SIGGRAF 2018] [Høydepunkter] Mot bølgebasert lydsyntese for dataanimasjon

I kinoens tidlige dager la organister lydeffekter til stumfilmer ved å spille med på det som skjedde på skjermen. Hopp frem til 2018, og en variant av denne ideen danner grunnlaget for nytt arbeid utført av informatikere ved Stanford University. De har utviklet en kunstig intelligens system som er i stand til å syntetisere realistiske lyder for dataanimasjon basert utelukkende på bildene den ser og kunnskapen om den fysiske verdenen. Resultatene er syntetiserte lyder ved å trykke på en knapp.

Anbefalte videoer

"Vi har utviklet det første systemet for automatisk syntetisering av lyder for å akkompagnere fysikkbaserte dataanimasjoner," Jui-Hsien Wang, en doktorgradsstudent ved Stanfords Institute for Computational and Mathematical Engineering (ICME), fortalte Digital Trends. "Vår tilnærming er generell, [som betyr at] den kan beregne realistiske lydkilder for et bredt spekter av animerte fenomener - som solide kropper som en keramisk bolle eller en fleksibel crash cymbal, samt væske som helles i en kopp."

Teknologien som får systemet til å fungere er ganske smart. Den tar hensyn til den varierende posisjonen til objektene i scenen slik de ble satt sammen under 3D-modelleringsprosessen. Den identifiserer hva disse er, og forutsier deretter hvordan de vil påvirke lyder som produseres, enten det er for å reflektere, spre, r eller diffraktere dem.

I slekt

  • Den morsomme formelen: Hvorfor maskingenerert humor er den hellige gral til A.I.
  • Nvidias nye stemme A.I. høres akkurat ut som en ekte person
  • Kan A.I. slå menneskelige ingeniører med å designe mikrobrikker? Google mener det

"En stor ting med vår tilnærming er at ingen treningsdata er nødvendig," fortsatte Wang. "Den simulerer lyd fra første fysiske prinsipper."

I tillegg til å hjelpe raskere å legge til lydeffekter til animerte filmer, kan teknologien også gjøre det dag brukes til å hjelpe designere med å finne ut hvordan produktene kommer til å høres ut før de er fysisk produsert.

Det er ingen ord om når dette verktøyet kan gjøres offentlig tilgjengelig, men Wang sa at teamet for tiden "utforsker alternativer for å gjøre verktøyet tilgjengelig." Før det kommer til det punktet, men forskerne ønsker å forbedre systemets evne til å modellere mer komplekse objekter, for eksempel de frodige gjenklangstonene til en Stradivarius fiolin.

Forskningen skal presenteres som en del av ACM SIGGRAPH 2018, verdens ledende konferanse om datagrafikk og interaktive teknikker. Ta deg tid til å synes synd på den stakkars Pixar foley-artisten bakerst i salen som nettopp har kjøpt nytt hus!

Redaktørenes anbefalinger

  • Analog A.I.? Det høres sprøtt ut, men det kan være fremtiden
  • Nvidias siste A.I. resultater viser at ARM er klar for datasenteret
  • Nvidia senker barrieren for inntreden i A.I. med Fleet Command og LaunchPad
  • Les den uhyggelig vakre 'syntetiske skriften' til en A.I. som tror det er Gud
  • Googles LaMDA er et smart språk A.I. for bedre forståelse av samtalen

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.