Το νέο λογισμικό τεχνητής νοημοσύνης της Samsung κάνει ακόμα πιο εύκολη τη δημιουργία πλαστών βίντεο

Ελάχιστες αντιπάλους εκμάθησης ρεαλιστικών μοντέλων νευρωνικής κεφαλής ομιλίας

ΟΛΑ ΣΥΜΠΕΡΙΛΑΜΒΑΝΟΝΤΑΙ. γίνεται όλο και καλύτερος στην παραγωγή ψεύτικα βίντεο, για τα πάντα από προσθέτοντας διασκεδαστικά τον Νίκολας Κέιτζ σε ταινίες για να κακόβουλη διάδοση ψευδών ειδήσεων. Τώρα η Samsung έχει αναπτύξει λογισμικό που κάνει τη δημιουργία πλαστών βίντεο ακόμα πιο εύκολη.

Προτεινόμενα βίντεο

Το νέο A.I. Το λογισμικό αναπτύχθηκε στο A.I της Samsung. Κέντρο στη Μόσχα. Όπως περιγράφεται σε έγγραφο που διατίθεται στο αρχείο προδημοσίευσης arXiv, είναι μια νέα εξέλιξη στην τεχνολογία. Προηγουμένως, τα περισσότερα ψεύτικα λογισμικά απαιτούσαν πολύ μεγάλο αριθμό εικόνων του προσώπου ενός συγκεκριμένου ατόμου προκειμένου να αντιστοιχιστεί αυτό το πρόσωπο σε ένα βίντεο. Αλλά το νέο λογισμικό μπορεί να δημιουργήσει κάπως πειστικά ψεύτικα από μερικές μόνο εικόνες ενός ατόμου. Δυνητικά, θα μπορούσε να λειτουργήσει ακόμη και με μία μόνο εικόνα ενός προσώπου.

Η ποιότητα των απομιμήσεων που παράγονται από την A.I. εξακολουθεί να είναι πολύ μεταβλητό, και πόσο πειστικό θα είναι ένα ψεύτικο εξαρτάται από παράγοντες όπως ο φωτισμός της αρχικής και των εικόνων-στόχων και η κοινότητα μεταξύ τα δύο.

Σχετίζεται με

  • Η νέα τεχνολογία οθόνης της Samsung κάνει το Galaxy S21 Ultra ακόμα πιο αποδοτικό
  • Νέα A.I. Το ακουστικό βαρηκοΐας μαθαίνει τις ακουστικές σας προτιμήσεις και κάνει προσαρμογές
  • Ένας θαυμαστής του Star Trek ψεύτισε τα Δεδομένα Επόμενης Γενιάς στη νέα σειρά Picard

Για να επιδείξει το νέο λογισμικό, η ομάδα της Samsung μοιράστηκε ένα βίντεο που δείχνει διασκεδαστικές εφαρμογές όπως «ζωντανά πορτρέτα», στα οποία παρουσιάζονται εικόνες διασημοτήτων όπως η Marilyn Monroe και ο Salvador Dali στη ζωή. Υπάρχει ακόμη και ένα βίντεο κλιπ της Μόνα Λίζα, κινούμενο για να δείξει τις ικανότητες του λογισμικού.

Αλλά η πιθανότητα για κατάχρηση αυτής της τεχνολογίας είναι σοβαρή, όπως καταδεικνύεται σε ένα επιμελημένο κλιπ της πολιτικού Nancy Pelosi που κάνει τον γύρο του Facebook.

Οι συντάκτες της εργασίας, ο Egor Zakharov και οι συνεργάτες του, έχουν επίγνωση αυτής της πιθανότητας κατάχρησης και φαίνεται να το προσέχουν. «Πιστεύουμε ότι οι τεχνολογίες τηλεπαρουσίας σε AR, VR και άλλα μέσα θα μεταμορφώσουν τον κόσμο στο όχι και τόσο μακρινό μέλλον», γράφουν στο YouTube. «Συνειδητοποιούμε ότι η τεχνολογία μας μπορεί να έχει αρνητική χρήση για τα λεγόμενα «deepfake» βίντεο. Ωστόσο, είναι σημαντικό να συνειδητοποιήσουμε ότι το Χόλιγουντ έχει κάνει ψεύτικα βίντεο (γνωστά και ως «ειδικά εφέ») εδώ και έναν αιώνα, και τα δίκτυα σε βάθος με παρόμοιες δυνατότητες ήταν διαθέσιμα εδώ και αρκετά χρόνια.”

Οι συγγραφείς περιγράφουν το λογισμικό τους ως εκδημοκρατισμό των ειδικών εφέ και γράφουν ότι «το καθαρό αποτέλεσμα του Ο εκδημοκρατισμός στον κόσμο ήταν θετικός και οι μηχανισμοί για τον περιορισμό των αρνητικών επιπτώσεων ήταν αναπτηγμένος. Πιστεύουμε ότι η περίπτωση της τεχνολογίας νευρωνικών avatar δεν θα είναι διαφορετική».

Αναμφισβήτητα, η δυνατότητα γιατρών βίντεο με αυτό το είδος λογισμικού δεν είναι τόσο διαφορετική από τη δυνατότητα γιατρού εικόνων με το Photoshop. Αλλά καθώς το λογισμικό γίνεται πιο κοινό, είναι σημαντικό να θυμάστε ότι το γεγονός ότι το βλέπετε σε ένα βίντεο, δεν σημαίνει ότι είναι πραγματικό.

Συστάσεις των συντακτών

  • Η αστεία φόρμουλα: Γιατί το χιούμορ που δημιουργείται από μηχανή είναι το ιερό δισκοπότηρο του A.I.
  • Έξυπνο νέο A.I. το σύστημα υπόσχεται να εκπαιδεύσει τον σκύλο σας ενώ λείπετε από το σπίτι
  • Η νέα φουτουριστική συσκευή χρησιμοποιεί A.I. για να ταξινομήσετε και να προετοιμάσετε την ανακύκλωσή σας
  • Αυτό το πρωτοποριακό νέο στυλ A.I. μαθαίνει πράγματα με εντελώς διαφορετικό τρόπο
  • Νέο «A.I. ο δικηγόρος αναλύει τα email σας για να βρει κενά εξοικονόμησης χρημάτων

Αναβαθμίστε τον τρόπο ζωής σαςΤο Digital Trends βοηθά τους αναγνώστες να παρακολουθούν τον γρήγορο κόσμο της τεχνολογίας με όλα τα τελευταία νέα, διασκεδαστικές κριτικές προϊόντων, διορατικά editorial και μοναδικές κρυφές ματιές.