Κατά τη διάρκεια των τελευταίων ετών, deepfakes έχουν αναδειχθεί ως η πιο πρόσφατη επιλογή του Διαδικτύου για μιμίδια και περιεχόμενο παρωδίας.
Περιεχόμενα
- Με τη μεγάλη δύναμη έρχεται η μεγάλη αναδημοσίευση
- Το κίνημα για τη διάσωση των deepfakes
- Πρέπει να ρυθμιστούν τα deepfakes;
Είναι εύκολο να καταλάβει κανείς γιατί: Επιτρέπουν στους δημιουργούς να λυγίζουν τους κανόνες της πραγματικότητας όπως καμία άλλη τεχνολογία πριν. Μέσα από τη μαγεία των deepfakes, μπορείτε να παρακολουθήσετε Η Jennifer Lawrence εκφωνεί μια ομιλία μέσα από το πρόσωπο του Steve Buscemi, να δούμε τι Ο Ryan Reynolds θα έμοιαζε με τον Willy Wonka, και μάλιστα να πιάσει Ο Χίτλερ και ο Στάλιν τραγουδούνVideo Killed The Radio Star σε ντουέτο.
Προτεινόμενα βίντεο
Για τους μη μυημένους, η τεχνολογία deepfake είναι μια μορφή συνθετικών μέσων που επιτρέπει στους χρήστες να επιθέσουν ένα διαφορετικό πρόσωπο στο πρόσωπο κάποιου άλλου με τρόπο που δεν διακρίνεται σχεδόν από το πρωτότυπο. Το κάνει διαβάζοντας σωρούς δεδομένων για να κατανοήσει τα περιγράμματα του προσώπου και άλλα χαρακτηριστικά για να το συνδυάσει φυσικά και να το ζωντανέψει στη σκηνή.
Σχετίζεται με
- Αυτή η startup θέλει να κλωνοποιήσει τη φωνή σας και να την πουλήσει στον πλειοδότη
- Μέσα στον ταχέως κλιμακούμενο πόλεμο μεταξύ deepfakes και deepfake ανιχνευτών
- Ο Έλον Μασκ προειδοποιεί ότι όλα τα A.I. πρέπει να ρυθμιστεί, ακόμη και στην Tesla
Σε αυτό το σημείο, πιθανότατα έχετε συναντήσει τέτοια κλιπ σε πλατφόρμες όπως το TikTok (όπου το hashtag "#deepfake" έχει περίπου 200 εκατομμύρια προβολές), το YouTube και αλλού. Είτε πρόκειται για την εκπλήρωση της φαντασίας θαυμαστών και επαναλάβετε σκηνές με αστέρια Θα ήθελαν η ταινία αρχικά να είχε ρίξει ή να βάλει έναν νεκρό σε ένα μοντέρνο, viral meme, τα deepfakes έχουν υιοθετηθεί ως δημιουργική διέξοδος για σκοπούς που προηγουμένως ήταν σχεδόν αδύνατοι.
Η αλλαγή έχει δημιουργήσει μια ομάδα νέων δημιουργών όπως Ctrl Shift Face, του οποίου τα βαθιά ψεύτικα βίντεο συγκεντρώνουν τακτικά εκατομμύρια προβολές και συχνά αποτελούν το κύριο θέμα συζήτησης στα μεταμεσονύχτια talk show.
«Είναι ένας εντελώς νέος τρόπος να δημιουργείς αστεία βίντεο στο Διαδίκτυο ή να λες ιστορίες όπως δεν έχουμε ξαναδεί», λέει ο δημιουργός με έδρα την Ολλανδία πίσω από την επιτυχία «Οι Εκδικητές του Οζ” deepfake κλιπ που ζήτησε να μην χρησιμοποιηθεί το πραγματικό του όνομα. «Είναι ένας όμορφος συνδυασμός γοητείας για την A.I. τεχνολογία και χιούμορ».
Αλλά υπάρχει ένας διαφαινόμενος κίνδυνος που απειλεί το μέλλον της τεχνολογίας deepfake συνολικά: Η σπασμένη φήμη της.
Με τη μεγάλη δύναμη έρχεται η μεγάλη αναδημοσίευση
Δυστυχώς, εκτός από τις δυνατότητές τους ως δημιουργικού εργαλείου για καλοπροαίρετους καλλιτέχνες βίντεο, τα deepfakes έχουν επίσης τεράστια δυνατότητα να κάνουν κακό.
Πρόσφατο μελέτη από το Dawes Center for Future Crime στο UCL Jill Dando Institute of Security and Crime Science ονομάζονται deepfakes η πιο σοβαρή απειλή με δυνατότητα A.I. Ιαπωνικό λεπτό. Ο Ben Sasse, ένας Ρεπουμπλικανός από τη Νεμπράσκα που έχει εισαγάγει ένα νομοσχέδιο για την ποινικοποίηση της κακόβουλης δημιουργίας deepfakes, προειδοποίησε πέρυσι ότι η τεχνολογία θα μπορούσε να «καταστρέψει ανθρώπινες ζωές», «να χαλάσει τις χρηματοπιστωτικές αγορές» και ακόμη «να υποκινήσει στρατιωτικές συγκρούσεις σε όλο τον κόσμο».
Ως ένα βαθμό, αυτές οι ανησυχίες είναι δίκαιες. Σε τελική ανάλυση, ο πολλαπλασιασμός της τεχνολογίας deepfake έχει ήδη επιτρέψει πράγματα όπως η παραγωγή πλαστού περιεχομένου για ενηλίκους με διασημότητες και ρεαλιστικές προσωποποιήσεις πολιτικών για σάτιρα. Νωρίτερα φέτος, ο Dan Scavino, διευθυντής κοινωνικής δικτύωσης του Λευκού Οίκου, ανέβασε στο Twitter ένα βίντεο με κακή χειραγώγηση, το οποίο αναδημοσιεύτηκε επίσης από τον Πρόεδρο Ντόναλντ Τραμπ, με τον αντίπαλο του Τραμπ Τζο Μπάιντεν που ζητά από τον κόσμο να επανεκλέξει τον Τραμπ.
Ο Τραμπ έκανε retweet το επεξεργασμένο βίντεο του Μπάιντεν. Να τι είπε στην πραγματικότητα ο Μπάιντεν.
Ωστόσο, αυτές οι λιγότερο πειστικές φάρσες γρήγορα απομυθοποιήθηκαν πριν φτάσουν στις μάζες. Το πιο σημαντικό είναι ότι οι ειδικοί προτείνουν ότι τα βαθιά ψεύτικα βίντεο έχουν μέχρι στιγμής ελάχιστη έως καθόλου κοινωνική επίδραση και ότι επί του παρόντος δεν αποτελούν επικείμενες απειλές. Για παράδειγμα, έρευνα που διεξήχθη από Ευαισθησία, μια εταιρεία κυβερνοασφάλειας που επικεντρώνεται στις οπτικές απειλές, ισχυρίζεται ότι η συντριπτική πλειοψηφία των deepfake βίντεο είναι πορνογραφικό (96%) και ότι η τεχνολογία δεν έχει ακόμη κάνει το δρόμο της σε οποιαδήποτε σημαντική παραπληροφόρηση εκστρατείες.
Ομοίως, α Έκθεση του Πανεπιστημίου Georgetown κατέληξε στο συμπέρασμα ότι ενώ τα deepfakes είναι ένα «εντυπωσιακό τεχνικό επίτευγμα», οι υπεύθυνοι χάραξης πολιτικής δεν πρέπει να βιαστούν η διαφημιστική εκστρατεία καθώς η τεχνολογία δεν είναι τέλεια αυτή τη στιγμή και δεν μπορεί να επηρεάσει απλώς τα πραγματικά γεγονότα Ακόμη.
Ο δημιουργός πίσω από το πιο δημοφιλές κανάλι deepfake Ctrl Shift Face, του οποίου τα βίντεο προβάλλονται από εκατομμύρια, πιστεύει ότι η «υστερία» ο κύκλος γύρω από το θέμα του deepfake απομακρύνει την προσοχή των νομοθετών από τα πραγματικά ζητήματα, όπως η κακώς ρυθμισμένη διαφήμιση δίκτυα σε Facebook που στην πραγματικότητα ευθύνονται για την παραπλάνηση των ανθρώπων.
«Εάν ποτέ υπάρξει ένα επιβλαβές deepfake, το Facebook είναι το μέρος όπου θα εξαπλωθεί», δήλωσε το Ctrl Shift Face σε συνέντευξή του στο Digital Trends. «Σε αυτή την περίπτωση, ποιο είναι το μεγαλύτερο πρόβλημα; Το μέσο ή η πλατφόρμα;»
Ο ιδιοκτήτης του BabyZone, ένα κανάλι παιχνιδιών YouTube με πάνω από μισό εκατομμύριο συνδρομητές που συχνά παραποιεί διασημότητες σε βίντεο παιχνίδια, απηχεί μια παρόμοια ανησυχία: «Νομίζω ότι τα deepfakes είναι μια τεχνολογία όπως όλες οι άλλες που υπάρχουν τεχνολογίες. Μπορούν να χρησιμοποιηθούν για καλούς και για κακούς σκοπούς».
Το κίνημα για τη διάσωση των deepfakes
Κατά τη διάρκεια των τελευταίων δύο ετών, καθώς οι κυβερνήσεις και οι εταιρείες τεχνολογίας ερευνούν τους πιθανούς κινδύνους από αυτό τεχνολογία, οι υποστηρικτές του deepfake έχουν προσπαθήσει να κατευνάσουν αυτές τις ανησυχίες και να διορθώσουν το κοινό της τεχνολογίας εικόνα. Κοινότητες Reddit που επιδιώκουν να «προσαρμόσουν αυτό το στίγμα» έχουν εμφανιστεί και ορισμένοι ανεξάρτητοι ερευνητές κατασκευάζουν ενεργά συστήματα που μπορούν να εντοπίσουν τα deepfakes πριν γίνουν viral.
Roman Mogylnyi, Διευθύνων Σύμβουλος και συνιδρυτής της Reface, μιας επιτυχημένης εφαρμογής που σας επιτρέπει να αλλάξετε γρήγορα το πρόσωπό σας σε οποιοδήποτε GIF, λέει ότι η startup του αναπτύσσει τώρα ένα εργαλείο ανίχνευσης που μπορεί να πει αν ένα βίντεο δημιουργήθηκε με το Reface τεχνολογία. «Πιστεύουμε ότι η ευρεία πρόσβαση σε εργαλεία σύνθεσης μέσων όπως το δικό μας θα αυξήσει την ενσυναίσθηση της ανθρωπότητας και δημιουργικότητα και θα βοηθήσει να αλλάξει η αντίληψη της τεχνολογίας προς το καλύτερο», δήλωσε ο Mogylnyi στην Digital Τάσεις.
Ο Eran Dagan, ιδρυτής και διευθύνων σύμβουλος της Botika, της startup πίσω από τη δημοφιλή εφαρμογή ανταλλαγής προσώπων Jiggy, έχει παρόμοια προοπτική προς τα deepfakes και πιστεύει ότι καθώς γίνονται πιο mainstream, «οι άνθρωποι θα γνωρίζουν πολύ περισσότερο τη θετική τους χρήση περιπτώσεις."
Δεδομένων των πιθανών κινδύνων των deepfakes, ωστόσο, είναι πιθανό ότι το Κογκρέσο θα παρέμβει τελικά. Σημαντικές πλατφόρμες τεχνολογίας συμπεριλαμβανομένων των Facebook, Twitter και YouTube έχουν ήδη ενημερώσει τις πολιτικές τους για να επισημάνουν ή να αφαιρέσουν τα παραποιημένα μέσα που έχουν σχεδιαστεί για να παραπλανούν. Πολλαπλές πολιτείες όπως Καλιφόρνια και η Νέα Υόρκη έχουν εγκρίνει νομοσχέδια που θα τιμωρούν τους κατασκευαστές σκόπιμα παραπλανητικών deepfakes, καθώς και εκείνων που απελευθερώνονται χωρίς τη συγκατάθεση του ατόμου του οποίου το πρόσωπο χρησιμοποιείται.
Πρέπει να ρυθμιστούν τα deepfakes;
Ενώ αυτές οι πολιτικές αποκλείουν περιεχόμενο παρωδίας, ειδικούς, φοβούμενους ακατάλληλους νόμους ή πλήρη απαγόρευση της τεχνολογίας, εξακολουθούν να πιστεύουν ότι το Κογκρέσο πρέπει να μείνει έξω από αυτό και να αφήσει τα deepfakes να ακολουθήσουν τη φυσική πορεία που ακολουθεί κάθε νέα μορφή μέσων διά μέσου.
Ο David Greene, διευθυντής πολιτικών ελευθεριών στο Electronic Frontier Foundation, λέει ότι «οποιαδήποτε προσπάθεια από το Κογκρέσο να ρυθμίζουν τα βαθιά ψεύτικα ή πραγματικά οποιοδήποτε είδος οπτικής επικοινωνίας θα είναι ρύθμιση του λόγου και εμπλέκουν το Πρώτο Τροπολογία.
«Η κοινωνία πρέπει να δημιουργήσει νέους μηχανισμούς για την πιστοποίηση του τι μπορεί να είναι αξιόπιστο και πώς να αποτρέψει τις αρνητικές επιπτώσεις του συνθετικού περιεχομένου σε άτομα και οργανισμούς».
Αυτοί οι νόμοι, προσθέτει ο Greene, πρέπει να είναι ακριβείς και πρέπει - με σαφώς καθορισμένους και εύκολα κατανοητούς όρους - να αντιμετωπίσουν τη βλάβη που προσπαθούν να περιορίσουν. «Αυτό που έχουμε δει μέχρι στιγμής… οι ρυθμιστικές προσπάθειες σε κρατικό επίπεδο είναι ασαφείς και υπερβολικά ευρύτεροι νόμοι που δεν έχουν την ακρίβεια που απαιτεί η Πρώτη Τροποποίηση. Δεν έχουν απαιτούμενες εξαιρέσεις για παρωδία και πολιτικά σχόλια».
Ο Giorgio Patrini, Διευθύνων Σύμβουλος της Sensity, βρίσκει την απαγόρευση αλγορίθμων και λογισμικού «άνευ σημασίας στην εποχή του Διαδικτύου». Η Patrini συγκρίνει αυτό το αίνιγμα με κακόβουλο λογισμικό προστασία και πώς είναι σχεδόν αδύνατο να τεθεί τέλος σε όλους τους ιούς υπολογιστών ή τους δημιουργούς τους, επομένως είναι καλύτερο να επενδύσετε απλώς σε μηχανισμούς κατά του κακόβουλου λογισμικού αντι αυτου. «Η κοινωνία πρέπει να δημιουργήσει νέους μηχανισμούς για την πιστοποίηση του τι μπορεί να είναι αξιόπιστο και πώς να αποτρέψει τις αρνητικές επιπτώσεις του συνθετικού περιεχομένου σε άτομα και οργανισμούς», είπε.
Ο Tim Whang έγραψε στην έκθεση του Πανεπιστημίου Georgetown ότι με την εμπορευματοποίηση εργαλείων deepfake, η τεχνολογία εντοπισμού και φιλτραρίσματος αυτόματα θα εξελιχθεί και θα γίνει πιο ακριβές - εξουδετερώνοντας έτσι την ικανότητά τους να παρουσιάζουν οποιαδήποτε σοβαρή απειλές.
Το εργαλείο ανίχνευσης deepfake της Microsoft που κυκλοφόρησε πρόσφαταΓια παράδειγμα, αναλύει τα βίντεο για να σας προσφέρει μια βαθμολογία εμπιστοσύνης που υποδεικνύει πόσο πιθανό είναι να τροποποιήθηκε το βίντεο.
«Τα Deepfakes είναι μια νέα μορφή χειραγώγησης των μέσων ενημέρωσης, αλλά δεν είναι η πρώτη φορά που αντιμετωπίζουμε τέτοιου είδους πρόκληση. Εξερευνούμε και επενδύουμε σε τρόπους αντιμετώπισης των συνθετικών μέσων», δήλωσε εκπρόσωπος του YouTube.
Οι ερευνητές πίσω CtrlShiftLab, ένα προηγμένο λογισμικό δημιουργίας deepfake που χρησιμοποιούν τώρα πολλοί YouTubers, συμπεριλαμβανομένου του Ctrl Shift Face εργάζεται επίσης για έργα ανοιχτού κώδικα για την ευαισθητοποίηση και τη δημιουργία πιο ολοκληρωμένης ανίχνευσης Υπηρεσίες.
«Ο μόνος τρόπος για να αποφευχθεί αυτή η [κατάχρηση του deepfake] είναι η δημιουργία ενός έργου ανοιχτού κώδικα που σχετίζεται με το deepfake και η προσέλκυση της προσοχής του κοινού. Έτσι, οι δημόσιοι χρήστες του Διαδικτύου μπορούν να συνειδητοποιήσουν ότι τα deepfakes υπάρχουν», δήλωσε στο Digital Trends ο Kunlin Liu, ένας από τους ερευνητές του CtrlShiftLab.
Αρκετοί δημιουργοί deepfake Digital Trends μίλησαν με τους να παραμείνουν αισιόδοξοι και βρήκαν πρόωρη την ώθηση των χωρών έναντι των deepfakes. Συμφωνούν ότι ο αυξανόμενος ρόλος του deepfake στα μιμίδια και την κουλτούρα παρωδίας θα είναι καθοριστικός για τη διόρθωση της κακής φήμης αυτής της αναδυόμενης τεχνολογίας. Και εφόσον τα βίντεο έχουν δηλώσεις αποποίησης ευθυνών και οι πλατφόρμες επενδύουν σε πιο αποτελεσματικά επίπεδα ανίχνευσης, πρόσθεσαν, τα deepfakes είναι εδώ για να μείνουν.
«Νομίζω ότι η φήμη των deepfakes βελτιώνεται σημαντικά. Πριν από δύο χρόνια, η λέξη deepfake σήμαινε αυτόματα πορνό», είπε ο δημιουργός του Ctrl Shift Face. «Τώρα, οι περισσότεροι άνθρωποι γνωρίζουν deepfakes εξαιτίας αυτών των διασκεδαστικών βίντεο που κυκλοφορούν στο διαδίκτυο».
Συστάσεις των συντακτών
- Βραβεία Digital Trends Tech For Change CES 2023
- Στο ξεκαρδιστικό Project Gucciberg, ένας ψεύτικος Gucci Mane διαβάζει κλασικά μυθιστορήματα
- Πώς καλλιτέχνες και ακτιβιστές χρησιμοποιούν τα deepfakes ως δύναμη για το καλό
- Το Twitter κινείται για να απαγορεύσει τα deepfakes που «προκαλούν κακό» ενόψει των εκλογών του 2020
- Η Καλιφόρνια καταπολεμά τα deepfakes για πολιτική και πορνό