Samsungi uus tehisintellekti tarkvara muudab võltsvideote loomise veelgi lihtsamaks

Realistlike neuraalsete kõnepeade mudelite vähehaaval õppimine

A.I. läheb tootmises aina paremaks võltsvideod, kõige jaoks alates lisades lõbusalt Nicholas Cage'i filmidesse võltsuudiste pahatahtlik levitamine. Nüüd on Samsung välja töötanud tarkvara, mis muudab võltsvideote loomise veelgi lihtsamaks.

Soovitatavad videod

Uus A.I. tarkvara töötati välja Samsungi A.I. Keskus Moskvas. Nagu kirjeldatud avaldamiseelses arhiivis kättesaadavas dokumendis arXiv, on tehnoloogia uus areng. Varem oli enamiku sügavate võltstarkvarade jaoks vaja väga palju konkreetse inimese näo kujutisi, et see nägu videosse kaardistada. Kuid uus tarkvara suudab mõne inimese pildi põhjal luua veenvaid võltsinguid. Võimalik, et see võib töötada isegi ühe näopildiga.

A.I. toodetud võltsingute kvaliteet. on ikka väga muutlik ja kui veenev on võlts sõltub sellistest teguritest nagu originaali ja sihtkujutise valgustus ning nendevaheline ühisosa kaks.

Seotud

  • Samsungi uus ekraanitehnoloogia muudab Galaxy S21 Ultra veelgi energiasäästlikumaks
  • Uus A.I. kuuldeaparaat õpib teie kuulamiseelistusi ja teeb muudatusi
  • Star Treki fänn võltsis järgmise põlvkonna ajastu andmed uude Picardi seeriasse

Uue tarkvara demonstreerimiseks jagas Samsungi meeskond videot, mis näitas lõbusaid rakendusi nagu "elavad portreed", kuhu tuuakse pilte kuulsustest nagu Marilyn Monroe ja Salvador Dali elule. Seal on isegi videolõik Mona Lisast, mis on animeeritud tarkvara võimete näitamiseks.

Kuid selle tehnoloogia kuritarvitamise potentsiaal on tõsine, nagu näitas poliitik Nancy Pelosi doktoriklips, mis praegu teeb ringe. Facebook.

Artikli autorid Egor Zakharov ja kolleegid on sellest kuritarvitamise võimalusest teadlikud ja tunduvad olevat sellele teadlikud. "Usume, et AR-i, VR-i ja muude meediumite kaugesinemise tehnoloogiad muudavad maailma mitte nii kauges tulevikus," kirjutavad nad YouTube'is. "Me mõistame, et meie tehnoloogial võib olla niinimetatud "deepfake" videote jaoks negatiivne kasutus. Siiski on oluline mõista, et Hollywood on teinud võltsvideoid (teise nimega "eriefektid"). sajandiks ja sarnaste võimalustega sügavad võrgud on olnud saadaval juba mitu viimast aastat.”

Autorid kirjeldavad oma tarkvara kui demokratiseerivaid eriefekte ja kirjutavad, et "netomõju [maailma] demokratiseerumine on olnud positiivne ja negatiivsete mõjude peatamise mehhanismid on olnud arenenud. Usume, et närviavatari tehnoloogia juhtum ei erine.

Väidetavalt ei erine selle tarkvaraga videote töötlemise võimalus nii palju pilte Photoshopiga. Kuid kuna tarkvara muutub levinumaks, on oluline meeles pidada, et see, et näete seda videos, ei tähenda, et see on tõeline.

Toimetajate soovitused

  • Naljakas valem: miks masinaga loodud huumor on A.I püha graal?
  • Nutikas uus A.I. süsteem lubab teie koera koolitada, kui olete kodust eemal
  • Futuristlik uus seade kasutab A.I. sorteerimiseks ja taaskasutamise ettevalmistamiseks
  • See murranguline uus stiil A.I. õpib asju hoopis teistmoodi
  • Uus "A.I. advokaat analüüsib teie e-kirju, et leida raha säästvaid lünki

Uuenda oma elustiiliDigitaalsed suundumused aitavad lugejatel hoida silma peal kiirel tehnikamaailmal kõigi viimaste uudiste, lõbusate tooteülevaadete, sisukate juhtkirjade ja ainulaadsete lühiülevaadetega.