Învățare adversară cu câteva lovituri de modele realiste cu cap vorbitor neuronal
A.I. produce din ce în ce mai bine videoclipuri false, pentru tot de la adăugând amuzant Nicholas Cage în filme pentru răspândind cu răutate știri false. Acum Samsung a dezvoltat un software care face crearea videoclipurilor false și mai ușoară.
Videoclipuri recomandate
Noul A.I. software-ul a fost dezvoltat la Samsung A.I. Centru din Moscova. După cum este descris într-o lucrare disponibilă în arhiva de pre-publicare arXiv, este o nouă dezvoltare în tehnologie. Anterior, majoritatea software-ului fals profund necesita un număr foarte mare de imagini ale feței unei anumite persoane pentru a mapa acea față pe un videoclip. Dar noul software poate crea falsuri oarecum convingătoare din doar câteva imagini ale unei persoane. Potențial, ar putea funcționa chiar și cu o singură imagine a unei fețe.
Calitatea falsurilor produse de A.I. este încă foarte variabilă și cât de convingător va fi un fals depinde de factori precum iluminarea imaginilor originale și țintă și de comunitatea dintre cei doi.
Legate de
- Noua tehnologie de afișare a Samsung face Galaxy S21 Ultra și mai eficient din punct de vedere energetic
- Noul A.I. aparatul auditiv învață preferințele dvs. de ascultare și efectuează ajustări
- Un fan Star Trek a falsificat datele din era Next Generation în noua serie Picard
Pentru a demonstra noul software, echipa Samsung a distribuit un videoclip care arată aplicații distractive precum „Portrete vii”, în care sunt aduse imagini cu celebrități precum Marilyn Monroe și Salvador Dali la viață. Există chiar și un videoclip al Mona Lisa, animat pentru a arăta abilitățile software-ului.
Dar potențialul de abuz al acestei tehnologii este serios, așa cum se demonstrează într-un clip manipulat al politicianului Nancy Pelosi, care în prezent face turul pe Facebook.
Autorii lucrării, Egor Zakharov și colegii, sunt conștienți de acest potențial de abuz și par conștienți de el. „Credem că tehnologiile de teleprezență în AR, VR și alte medii vor transforma lumea într-un viitor nu atât de îndepărtat”, scriu ei pe YouTube. „Ne dăm seama că tehnologia noastră poate avea o utilizare negativă pentru așa-numitele videoclipuri „deepfake”. Cu toate acestea, este important să ne dăm seama că Hollywood a făcut videoclipuri false (alias „efecte speciale”). timp de un secol, iar rețelele profunde cu capacități similare au fost disponibile în ultimii câteva ani."
Autorii descriu software-ul lor ca fiind efecte speciale democratizante și scriu că „efectul net al democratizarea pe [lume] a fost pozitivă, iar mecanismele de stopare a efectelor negative au fost dezvoltat. Credem că cazul tehnologiei avatarului neuronal nu va fi diferit.”
Poate că abilitatea de a analiza videoclipuri cu acest tip de software nu este atât de diferită de abilitatea de a analiza imagini cu Photoshop. Dar, pe măsură ce software-ul devine mai comun, este important să rețineți că doar pentru că îl vedeți într-un videoclip, nu înseamnă că este real.
Recomandările editorilor
- Formula amuzantă: De ce umorul generat de mașini este Sfântul Graal al A.I.
- Un nou inteligent A.I. sistemul promite să vă dreseze câinele în timp ce sunteți plecat de acasă
- Un nou aparat futurist folosește A.I. pentru a sorta și pregăti reciclarea
- Acest nou stil revoluționar de A.I. învață lucrurile într-un mod total diferit
- Noul „A.I. avocatul îți analizează e-mailurile pentru a găsi lacune de economisire a banilor
Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.