【データグリッド】全身モデル自動生成AI | [DataGrid] Model generation AI
A.I. bliver ret skræmmende god til at lyve for os. Nej, vi taler ikke om forsætligt at vildlede folk til ondsindede midler, men snarere at skabe lyde og billeder, der virker ægte, men ikke eksisterer i den virkelige verden.
Anbefalede videoer
Tidligere har vi dækket kunstig intelligens, der er i stand til at skabe skræmmende virkeligt udseende "dybe forfalskninger" i form af ansigter, syntetiske stemmer og endda, fejl, Airbnb-opslag. Nu går forskere fra Japan et skridt videre ved at skabe fotorealistiske, højopløselige videoer af mennesker - komplet med tøj - som kun nogensinde har eksisteret i et neuralt netværks febrilske fantasi. Virksomheden, der er ansvarlig for denne forbløffende tech-demo, er DataGrid, en startup baseret på campus for Japans Kyoto Universitet. Som videoen øverst viser, er A.I. Algoritmen kan opfinde en endeløs parade af realistisk udseende mennesker, som konstant skifter form fra en form til en anden, takket være nogle blændende morphing-effekter.
Ligesom mange generative værktøjer til kunstig intelligens (inklusive A.I.-kunstværket, som sælges for store penge på en Christie's-auktion sidste år) blev denne seneste demonstration skabt ved hjælp af noget, der kaldes et Generative Adversarial Network (GAN). En GAN slår to kunstige neurale netværk mod hinanden. I dette tilfælde genererer det ene netværk nye billeder, mens det andet forsøger at finde ud af, hvilke billeder der er computergenererede, og hvilke der ikke er. Over tid tillader den generative modstridende proces "generator"-netværket at blive tilstrækkeligt gode til at skabe billeder til, at de kan narre "diskriminatoren" hver gang.
Relaterede
- Kan A.I. slå menneskelige ingeniører ved at designe mikrochips? Det mener Google
- Forskere bruger A.I. at skabe kunstig menneskelig genetisk kode
- Denne grundlæggende menneskelige færdighed er den næste store milepæl for A.I.
Som det kan ses af videoen, er resultaterne imponerende. De ser ikke ud til at have nogen af billedartefakter eller mærkelige fejl, som har markeret mange forsøg på at generere billeder. Det er dog sandsynligvis heller ikke en tilfældighed, at videoen viser mennesker placeret mod simpelt hvidt baggrunde, og derved minimere potentialet for forvirrende baggrunde, som kan påvirke billederne oprettet.
Forudsat at alt er, som det ser ud, er dette et fascinerende (omend mere end lidt foruroligende) fremskridt. Hvis vi var ansat som filmstatister eller katalogmodeller for tøjmærker, ville vi nok føle os en smule nervøse lige nu. I det mindste muligheden for næste niveau falske nyheder er lige blevet meget bedre.
Redaktørens anbefalinger
- Den sjove formel: Hvorfor maskingenereret humor er den hellige gral for A.I.
- Kvinder med byte: Vivienne Mings plan om at løse 'rodet menneskelige problemer' med A.I.
- The BigSleep A.I. er ligesom Google Billedsøgning efter billeder, der ikke eksisterer endnu
- Vild ny 'brainsourcing'-teknik træner A.I. direkte med menneskelige hjernebølger
- Microsoft henvender sig angiveligt til A.I. at optimere MSN-nyheder og erstatte menneskelige arbejdere
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.