Stanfords A.I. Tittar på dämpad animering, spelar det ljud det skulle göra

click fraud protection

[SIGGRAPH 2018] [Höjdpunkter] Mot vågbaserad ljudsyntes för datoranimering

I biografens tidiga dagar lade organister till ljudeffekter till stumfilmer genom att spela med i allt som hände på skärmen. Hoppa framåt till 2018, och en variant av denna idé ligger till grund för nytt arbete utfört av datavetare vid Stanford University. De har utvecklat en artificiell intelligens system som kan syntetisera realistiska ljud för datoranimering helt baserat på bilderna det ser och dess kunskap om den fysiska världen. Resultaten är syntetiserade ljud med en knapptryckning.

Rekommenderade videor

"Vi har utvecklat det första systemet för att automatiskt syntetisera ljud för att ackompanjera fysikbaserade datoranimationer," Jui-Hsien Wang, en doktorand vid Stanfords Institute for Computational and Mathematical Engineering (ICME), berättade för Digital Trends. "Vårt tillvägagångssätt är generellt, [vilket betyder att] det kan beräkna realistiska ljudkällor för ett brett utbud av animerade fenomen — såsom fasta kroppar som en keramisk skål eller en flexibel crash cymbal, såväl som vätska som hälls i en kopp."

Tekniken som får systemet att fungera är ganska smart. Den tar hänsyn till den varierande positionen för objekten i scenen som monterades under 3D-modelleringsprocessen. Den identifierar vad dessa är och förutsäger sedan hur de kommer att påverka ljud som produceras, oavsett om det är för att reflektera, sprida, r eller diffraktera dem.

Relaterad

  • Den roliga formeln: Varför maskingenererad humor är A.I.s heliga gral.
  • Nvidias nya röst A.I. låter precis som en riktig person
  • Kan A.I. slå mänskliga ingenjörer vid design av mikrochips? Google tycker det

"En stor sak med vårt tillvägagångssätt är att ingen träningsdata krävs," fortsatte Wang. "Den simulerar ljud från första fysiska principer."

Förutom att hjälpa till att snabbare lägga till ljudeffekter till animerade filmer kan tekniken också göra det dag användas för att hjälpa designers att räkna ut hur produkter kommer att låta innan de är fysiskt produceras.

Det finns inga ord om när detta verktyg kan göras tillgängligt för allmänheten, men Wang sa att teamet för närvarande "utforskar alternativ för att göra verktyget tillgängligt." Före det kommer till den punkten, men forskarna vill förbättra systemets förmåga att modellera mer komplexa objekt, såsom de frodiga ekotonerna hos en Stradivarius fiol.

Forskningen ska presenteras som en del av ACM SIGGRAPH 2018, världens ledande konferens om datorgrafik och interaktiva tekniker. Ta en sekund att tycka synd om den stackars Pixar foley-artist längst bak i hallen som precis köpt ett nytt hus!

Redaktörens rekommendationer

  • Analog A.I.? Det låter galet, men det kanske är framtiden
  • Nvidias senaste A.I. Resultaten visar att ARM är redo för datacentret
  • Nvidia sänker barriären för inträde i A.I. med Fleet Command och LaunchPad
  • Läs den kusligt vackra "syntetiska skriften" av en A.I. som tror att det är Gud
  • Googles LaMDA är ett smart språk A.I. för bättre förståelse av konversationen

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.