Γνωρίζατε ότι μπορείτε να κάνετε ένα deepfake βίντεο από την άνεση του σπιτιού σας ή στο τηλέφωνό σας; Κατεβάστε μια από την πληθώρα εφαρμογών αντικατάστασης προσώπου ή deepfake που διατίθενται τυχαία από το τοπικό σας κατάστημα εφαρμογών και εσείς επίσης μπορεί να επηρεάσει τις εκλογές.
Περιεχόμενα
- Το μέλλον των ΜΜΕ
- Οπλισμός των deepfakes
Εντάξει, όχι πραγματικά, και σίγουρα δεν το υποστηρίζουμε. Αλλά στη διαφημιστική εκστρατεία και την ανησυχία γύρω deepfake τεχνολογία, και την πολύ πραγματική κακή χρήση της, η απλή αλήθεια είναι ότι αυτή η τεχνολογία δεν θα εξαφανιστεί. Στην πραγματικότητα, θα γίνει τόσο συνηθισμένο όσο το Photoshop, ειδικά αν οι προγραμματιστές εφαρμογών εργάζονται πάνω στο Η τεχνολογία deepfake έχει κάτι να πει σχετικά: Σύντομα θα μπορούσαμε να δούμε υπερ-στοχευμένες διαφημίσεις με τα δικά μας πρόσωπα τους.
Προτεινόμενα βίντεο
Ο Roman Mogylnyi, Διευθύνων Σύμβουλος της RefaceAI, μιας startup με έδρα την Ουκρανία, είπε ότι εργάζονται με τη μηχανική εκμάθηση από το 2011 και επικεντρώθηκαν στην κατασκευή των δικών τους εφαρμογών με βάση την τεχνολογία deepfake το 2014. Η RefaceAI κυκλοφόρησε ήδη μια εφαρμογή φωτο-deepfake που ονομάζεται Reflect και είναι στα πρόθυρα της κυκλοφορίας τόσο της δικής της εφαρμογής βίντεο-deepfake, όσο και μιας υπηρεσίας ιστού που θα βοηθήσει στην ανίχνευση deepfake βίντεο.
Σχετίζεται με
- Ο σχολιασμός με τεχνητή νοημοσύνη έρχεται στο Wimbledon του επόμενου μήνα
- Ο υπερυπολογιστής της Nvidia μπορεί να φέρει μια νέα εποχή στο ChatGPT
- Βραβεία Digital Trends Tech For Change CES 2023
«Είδαμε από την αρχή ότι αυτή η τεχνολογία χρησιμοποιείται κατάχρηση», είπε ο Mogylnyi. «Σκεφτήκαμε ότι θα μπορούσαμε να το κάνουμε καλύτερα.»
Τεχνολογία RefaceAI Deepfake | Θα Χορέψουμε
Η RefaceAI έχει ήδη συνεργαστεί με ορισμένες εταιρείες παραγωγής ταινιών - αν και η Mogylnyi δεν μπορούσε να πει ποιες - για να χρησιμοποιήσει την τεχνολογία της για να ανταλλάξει το τα πρόσωπα των ηθοποιών στο σώμα διπλασιάζονται, με κόστος πολύ λιγότερο από αυτό που θα ήταν να πετάξουν τους ηθοποιούς πίσω για να σκηνοθετήσουν και να ξαναγυρίσουν τις σκηνές στο ερώτηση. Αυτό, είπε ο Mogylnyi, είναι αυτό που η εταιρεία βλέπει ως το μέλλον των deepfakes. «Θέλουμε να το χρησιμοποιήσουμε για μάρκετινγκ, για εξατομίκευση διαφημίσεων, για gif, για ψυχαγωγικό υλικό γενικά», είπε.
Το μέλλον των ΜΜΕ
Η RefaceAI δεν είναι η εταιρεία που προσπαθεί να προχωρήσει σε αυτήν την αναπόφευκτη καμπύλη μάρκετινγκ. Η Carica, μια εφαρμογή με έδρα τη Νότια Κορέα, αναπτύσσει επίσης deepfake GIF και βίντεο όπου ένα άτομο μπορεί να μπολιάσει το πρόσωπό του σε ένα δημοφιλές GIF αντίδρασης για να το στείλει σε φίλους και συγγενείς. Η εφαρμογή διαθέτει ήδη αναδυόμενες διαφημίσεις που ενσωματώνουν το πρόσωπο του χρήστη στη φωτογραφία ή το βίντεο της διαφήμισης.
«Θέλουμε η εταιρεία μας να γίνει εταιρεία πολυμέσων», είπε ο μηχανικός της Carica Joseph Jang στο Digital Trends. Τα Deepfakes είναι ακριβώς ο τρόπος με τον οποίο ξεκινούν. «Πιστεύω ότι οι εταιρείες πολυμέσων θα αρχίσουν να υιοθετούν αυτό το χαρακτηριστικό. Θα γίνει μια επιλογή που έχετε, όπως ένα φίλτρο. Θα γίνει τόσο φυσιολογικό για τους ανθρώπους».
Τόσο ο Jang όσο και ο Mogylnyi χρησιμοποίησαν τον πολλαπλασιασμό του Photoshop ως μοντέλο για το πού βλέπουν τα Deepfakes: Τόσο συνηθισμένα που δεν είναι αξιοσημείωτα, αν και ακόμα λίγο αμφιλεγόμενα. Και για τους δύο, τα πολιτικά και ηθικά προβλήματα που είναι τυλιγμένα σε βαθιά ψεύτικα είναι στην πραγματικότητα απλά άχρηστα.
Ο Shamir Allibhai, Διευθύνων Σύμβουλος της πλατφόρμας ανίχνευσης deepfake Amber Video, είπε στο Digital Trends ότι η κυρίαρχη άποψή του ήταν ότι η τεχνολογία deepfake, όπως και τα περισσότερα άλλα είδη τεχνολογίας, είναι ανήθικη.
«Θα ήταν σαν να λέμε ότι το Microsoft Word είναι ανήθικο, κακό γιατί θα το χρησιμοποιήσουν πιθανοί τρομοκράτες».
«Θα ήταν σαν να λέμε ότι το Microsoft Word είναι ανήθικο, είναι κακό γιατί θα το χρησιμοποιήσουν πιθανοί τρομοκράτες υποστηρίζει τη βίαιη, εξτρεμιστική ιδεολογία, η οποία θα εμπνεύσει άλλους να υποστηρίξουν τη βίαιη εξτρεμιστική ιδεολογία», είπε. «Βλέπω πολύ αυτή την τεχνολογία στο ίδιο πνεύμα».
Το Amber Video είναι μια πλατφόρμα που διαφημίζει τις υπηρεσίες της ως καταπολέμηση των deepfakes για την «αποτροπή απάτης, απώλειας φήμης και δυσπιστίας των ενδιαφερομένων». Allibhai είπε ότι δεν ήξερε αν ήταν έτοιμος να αγοράσει κάτι μόνο και μόνο επειδή το πρόσωπό του ήταν πάνω του, αλλά συμφώνησε ότι, τελικά, η τεχνολογία θα είναι διαβρωτικός.
«Είναι ένας καθρέφτης στην κοινωνία», είπε. «Το βλέπετε αυτό σε τεχνολογίες όπως η πλατφόρμα Twitter. Βλέπεις τα καλύτερα της ανθρωπότητας και τα χειρότερα από εμάς. Η τεχνολογία Deepfake θα αντικατοπτρίζει επίσης την κοινωνία. Υπάρχουν άνθρωποι που θα το χρησιμοποιήσουν για ανάλαφρη σάτιρα και θα κοροϊδέψουν τα αυταρχικά καθεστώτα. Αλλά θα προσπαθήσουμε επίσης να ράψουμε το χάος».
Οπλισμός των deepfakes
Ο μεγαλύτερος φόβος παραμένει η πιθανή κατάχρηση και ο οπλισμός των deepfakes. Καθώς γίνονται πιο κοινά, θα μπορούσαμε να τα δούμε να αναπτύσσονται όχι μόνο για εκστρατείες παραπληροφόρησης ευρείας κλίμακας, αλλά για πρακτικά αστεία ή σχολικό εκφοβισμό. Εάν η τεχνολογία είναι αρκετά προσβάσιμη, ο καθένας μπορεί να τη χρησιμοποιήσει.
Τόσο η Carica όσο και η RefaceAI δήλωσαν ότι λαμβάνουν μέτρα για τον μετριασμό της πιθανής κατάχρησης — η RefaceAI με την υπηρεσία web ανίχνευσης deepfake και η Carica με τους συντονιστές περιεχομένου. Ολόκληρη η εταιρεία Carica είναι μόλις εννέα άτομα αυτή τη στιγμή, είπε ο Jang, και ανταλλάσσουν καθήκοντα εποπτείας περιεχομένου.
«Ακόμη και το Photoshop μπορεί και έχει χρησιμοποιηθεί για εκφοβισμό. Αλλά από την άλλη, παρέχουμε ένα αντίδοτο».
«Αυτή ήταν πραγματικά η πρώτη ερώτηση που θέσαμε στον εαυτό μας», είπε ο Mogylnyi του RefaceAI. «Το αντιμετωπίζουμε με όρους πολιτικών σκανδάλων στην Ουκρανία εδώ και χρόνια. Κατανοούμε ότι η τεχνολογία μας μπορεί να γίνει κατάχρηση. Ακόμη και το Photoshop μπορεί και έχει χρησιμοποιηθεί για εκφοβισμό. Αλλά από την άλλη πλευρά, παρέχουμε ένα αντίδοτο για αυτό. Είχαμε χρήστες να ανεβάζουν σεξουαλικό περιεχόμενο στην εφαρμογή μας και τους αποκλείσαμε αμέσως».
Η Carica είναι μια αρκετά μικρή εφαρμογή με την οποία πρέπει να δουλέψουν προς το παρόν. Αλλά συνολικά, ο Jang δεν ανησυχούσε.
«Αυτό συμβαίνει με όλες τις νέες τεχνολογίες», είπε ο Jang. «Πρώτον, καθοδηγείται από κακή χρήση, αλλά μετά από αυτή τη φάση, γίνεται διαθέσιμο σε όλους και οι άνθρωποι το χρησιμοποιούν για κανονικά πράγματα».
Συστάσεις των συντακτών
- Ρομπότ ασφαλείας θα μπορούσαν να έρχονται σε ένα σχολείο κοντά σας
- Η Amazon αναπτύσσει τεχνητή νοημοσύνη για να συνοψίσει τις κριτικές προϊόντων
- Η Amazon σχεδιάζει αλλαγές «μια φορά σε μια γενιά» για την Αναζήτηση, αποκαλύπτει μια αγγελία εργασίας
- Ο μικρός υπολογιστής Jetson Orin Nano της Nvidia, αξίας 200 δολαρίων, είναι 80 φορές ταχύτερος από την προηγούμενη έκδοση
- Ο Έξυπνος καμβάς Google αποκτά βαθύτερη ενοποίηση μεταξύ των εφαρμογών