Μέσα στον πόλεμο μεταξύ Deepfakes και Deepfake Detectors

click fraud protection

Φανταστείτε μια περιστροφική ταινία για έναν κύριο εγκληματία εγκλωβισμένο σε έναν πόλεμο εξυπνάδας με τον μεγαλύτερο ντετέκτιβ του κόσμου.

Περιεχόμενα

  • Το πρόβλημα του deepfake
  • Χαζεύουμε τους ανιχνευτές
  • Ένα παιχνίδι deepfake γάτας και ποντικιού

Ο εγκληματίας επιδιώκει να κάνει ένα τεράστιο τέχνασμα αυτοπεποίθησης, χρησιμοποιώντας έξυπνο έξυπνο χέρι και μια παράξενη ικανότητα να μεταμφιεστεί ως σχεδόν οποιοσδήποτε στον πλανήτη. Είναι τόσο καλός σε αυτό που κάνει που μπορεί να κάνει τους ανθρώπους να πιστέψουν ότι είδαν πράγματα που δεν έγιναν ποτέ στην πραγματικότητα.

Προτεινόμενα βίντεο

Στη συνέχεια όμως συναντάμε τον ντετέκτιβ. Είναι μια θαυμάσια, αδιάκοπη μορφή που μπορεί να εντοπίσει τα «λέμε» οποιουδήποτε κλέφτη. Ξέρει ακριβώς τι να ψάξει, και ακόμη και η πιο μικροσκοπική συμπεριφορά - ένα ανασηκωμένο φρύδι εδώ, ένα πεσμένο φωνήεν εκεί - είναι αρκετή για να την ειδοποιήσει όταν κάτι δεν πάει καλά. Είναι το μόνο άτομο που έπιασε ποτέ τον ανταγωνιστή μας και τώρα είναι καυτή στα ίχνη του για άλλη μια φορά.

Σχετίζεται με

  • Βραβεία Digital Trends Tech For Change CES 2023
  • Η Meta θέλει να υπερφορτώσει τη Wikipedia με μια αναβάθμιση AI
  • Πώς θα ξέρουμε πότε ένα AI γίνεται πραγματικά αισθητό;

Ωστόσο, υπάρχει ένα πρόβλημα: ο κλέφτης μας το ξέρει αυτό αυτή ξέρει τι να ψάξει. Ως αποτέλεσμα, άλλαξε το παιχνίδι του, χωρίς να το καταλάβει ο πρωταγωνιστής.

Το πρόβλημα του deepfake

Αυτή είναι, στην ουσία, η ιστορία των deepfakes και deepfake ανίχνευσης μέχρι στιγμής. Deepfakes, μια μορφή συνθετικών μέσων στα οποία οι ομοιότητες των ανθρώπων μπορούν να αλλάξουν ψηφιακά σαν Ξεκαθάρισμα λογαριασμών remake σε σκηνοθεσία A.I. ερευνητές, ήταν αιτία ανησυχίας από τότε που εμφανίστηκαν στη σκηνή το 2017. Ενώ πολλά deepfakes είναι ελαφριά (ανταλλάσσονται Ο Arnie για τον Sly Stallone μέσα Ο εξολοθρευτής), αποτελούν επίσης πιθανή απειλή. Τα Deepfakes έχουν χρησιμοποιηθεί για τη δημιουργία πλαστών πορνογραφικών βίντεο που φαίνονται αληθινά και έχουν χρησιμοποιηθεί σε πολιτικές φάρσες, καθώς και σε οικονομικές απάτες.

Για να μην γίνουν ακόμη μεγαλύτερο πρόβλημα τέτοιου είδους φάρσες, κάποιος πρέπει να μπορεί να παρέμβει και να πει οριστικά πότε χρησιμοποιείται ένα deepfake και πότε όχι.

«Οι ανιχνευτές Deepfake λειτουργούν αναζητώντας εκείνες τις λεπτομέρειες ενός deepfake που δεν είναι πολύ σωστές, σαρώνοντας εικόνες όχι μόνο για απίθανες κοιλάδες, αλλά για την πιο μικροσκοπική παράξενη λακκούβα».

Δεν χρειάστηκε πολύς χρόνος για να εμφανιστούν οι πρώτοι ανιχνευτές deepfake. Μέχρι τον Απρίλιο του 2018, κάλυψα μια από τις προηγούμενες προσπάθειες για να γίνει αυτό, το οποίο κατασκευάστηκε από ερευνητές στο Τεχνικό Πανεπιστήμιο του Μονάχου της Γερμανίας. Ακριβώς όπως η ίδια η τεχνολογία deepfake, χρησιμοποιούσε A.I. — μόνο που αυτή τη φορά οι δημιουργοί του το χρησιμοποιούσαν όχι για να δημιουργήσουν ψεύτικα, αλλά για να τα εντοπίσουν.

Οι ανιχνευτές Deepfake λειτουργούν αναζητώντας εκείνες τις λεπτομέρειες ενός deepfake που δεν είναι αρκετά καθαρίζοντας εικόνες όχι μόνο για παράξενες κοιλάδες, αλλά και για την πιο μικρή παράξενη λακκούβα. Κόβουν δεδομένα προσώπου από εικόνες και στη συνέχεια τα περνούν μέσω ενός νευρωνικού δικτύου για να καταλάβουν τη νομιμότητά τους. Οι λεπτομέρειες του δώρου μπορεί να περιλαμβάνουν πράγματα όπως το κακό αναπαραγωγικό βλέμμα.

Αλλά τώρα ερευνητές από το Πανεπιστήμιο της Καλιφόρνια του Σαν Ντιέγκο έχουν βρει έναν τρόπο να νικήσουν τους ανιχνευτές deepfake εισάγοντας αυτά που ονομάζονται αντίθετα παραδείγματα σε καρέ βίντεο. Τα αντίθετα παραδείγματα είναι ένα συναρπαστικό - αλλά τρομακτικό - σφάλμα στο A.I. Μήτρα. Είναι σε θέση να ξεγελάσουν ακόμη και τα πιο έξυπνα συστήματα αναγνώρισης, για παράδειγμα, νομίζοντας ότι μια χελώνα είναι όπλο, ή ένας εσπρέσο είναι ένα μπέιζμπολ. Το κάνουν αυτό προσθέτοντας διακριτικά θόρυβο σε μια εικόνα, έτσι ώστε το νευρωνικό δίκτυο να κάνει τη λάθος ταξινόμηση.

Σαν να μπερδεύουμε ένα τουφέκι με ένα ερπετό με κέλυφος. Ή ένα πλαστό βίντεο για αληθινό.

Χαζεύουμε τους ανιχνευτές

"Υπήρξε μια πρόσφατη αύξηση στις μεθόδους για τη δημιουργία ρεαλιστικών deepfake βίντεο." Paarth Neekhara, ένας απόφοιτος μηχανικής υπολογιστών στο UC San Diego, είπε στο Digital Trends. «Δεδομένου ότι αυτά τα παραποιημένα βίντεο μπορούν να χρησιμοποιηθούν για κακόβουλους σκοπούς, έχει γίνει σημαντική προσπάθεια για την ανάπτυξη ανιχνευτών που μπορούν να ανιχνεύουν αξιόπιστα βαθιά ψεύτικα βίντεο. Για παράδειγμα, Facebook πρόσφατα ξεκίνησε το Deepfake Detection Challenge για να επιταχύνει την έρευνα για την ανάπτυξη ανιχνευτών deepfake. [Όμως], ενώ αυτές οι μέθοδοι ανίχνευσης μπορούν να επιτύχουν μεγαλύτερη από 90% ακρίβεια σε ένα σύνολο δεδομένων πλαστών και πραγματικών βίντεο, η δουλειά μας δείχνει ότι μπορούν εύκολα να παρακαμφθούν από έναν εισβολέα. Ένας εισβολέας μπορεί να εγχύσει έναν προσεκτικά κατασκευασμένο θόρυβο, που είναι αρκετά ανεπαίσθητος στο ανθρώπινο μάτι, σε κάθε καρέ ενός βίντεο, έτσι ώστε να ταξινομηθεί εσφαλμένα από έναν ανιχνευτή θυμάτων.»

Facebook Deepfake Challenge

Οι εισβολείς μπορούν να δημιουργήσουν αυτά τα βίντεο ακόμα κι αν δεν διαθέτουν συγκεκριμένες γνώσεις για την αρχιτεκτονική και τις παραμέτρους του ανιχνευτή. Αυτές οι επιθέσεις εξακολουθούν να λειτουργούν και μετά τη συμπίεση των βίντεο, όπως θα ήταν αν κοινοποιούνταν στο διαδίκτυο σε μια πλατφόρμα όπως το YouTube.

Όταν δοκιμάστηκε, η μέθοδος ήταν περισσότερο από 99% ικανή να ξεγελάσει τα συστήματα ανίχνευσης όταν δόθηκε πρόσβαση στο μοντέλο ανιχνευτή. Ωστόσο, ακόμη και στα χαμηλότερα επίπεδα επιτυχίας - για συμπιεσμένα βίντεο στα οποία δεν ήταν γνωστές πληροφορίες για τα μοντέλα ανιχνευτών - εξακολουθούσε να τα νίκησε στο 78,33% των περιπτώσεων. Δεν είναι σπουδαία νέα.

Οι ερευνητές αρνούνται να δημοσιεύσουν τον κώδικά τους με βάση ότι θα μπορούσε να γίνει κακή χρήση, σημείωσε ο Neekhara. «Τα αντίθετα βίντεο που δημιουργούνται με χρήση του κώδικά μας μπορούν ενδεχομένως να παρακάμψουν άλλους αόρατους ανιχνευτές deepfake που χρησιμοποιούνται στην παραγωγή από ορισμένα μέσα κοινωνικής δικτύωσης [πλατφόρμες]», εξήγησε. «Συνεργαζόμαστε με ομάδες που εργάζονται για την κατασκευή αυτών των συστημάτων ανίχνευσης βαθιάς ψευδούς και χρησιμοποιούν την έρευνά μας για να δημιουργήσουν πιο ισχυρά συστήματα ανίχνευσης».

Ένα παιχνίδι deepfake γάτας και ποντικιού

Αυτό δεν είναι το τέλος της ιστορίας, φυσικά. Για να επιστρέψουμε στην αναλογία της ταινίας μας, αυτό θα ήταν ακόμα μόλις 20 λεπτά μετά την ταινία. Δεν έχουμε φτάσει ακόμα στη σκηνή όπου ο ντετέκτιβ συνειδητοποιεί ότι ο κλέφτης νομίζει ότι την κορόιδεψε. Ή στο σημείο όπου ο κλέφτης συνειδητοποιεί ότι ο ντετέκτιβ ξέρει ότι ξέρει ότι εκείνη ξέρει. Ή.. παίρνεις την εικόνα.

Ένα τέτοιο παιχνίδι γάτας και ποντικιού για ανίχνευση deepfake, το οποίο είναι πιθανό να συνεχιστεί επ 'αόριστον, είναι γνωστό σε όποιον έχει εργαστεί στον τομέα της κυβερνοασφάλειας. Οι κακόβουλοι χάκερ βρίσκουν ευπάθειες, οι οποίες στη συνέχεια αποκλείονται από τους προγραμματιστές, πριν οι χάκερ βρουν ευπάθειες στη σταθερή τους έκδοση, η οποία στη συνέχεια τροποποιείται ξανά από τους προγραμματιστές. Συνέχεια επ' άπειρον.

"Ναι, τα συστήματα δημιουργίας και ανίχνευσης deepfake παρακολουθούν στενά τη δυναμική των ιών και των ιών." Shehzeen Hussain, Διδάκτωρ μηχανικής υπολογιστών στο UC San Diego. φοιτητής, είπε στο Digital Trends. «Προς το παρόν, οι ανιχνευτές deepfake εκπαιδεύονται σε ένα σύνολο δεδομένων πραγματικών και ψεύτικων βίντεο που δημιουργούνται χρησιμοποιώντας υπάρχουσες τεχνικές σύνθεσης deepfake. Δεν υπάρχει καμία εγγύηση ότι τέτοιοι ανιχνευτές θα είναι αλάνθαστοι έναντι μελλοντικών συστημάτων παραγωγής deepfake… Για να παραμείνουμε μπροστά στον αγώνα των εξοπλισμών, οι μέθοδοι ανίχνευσης πρέπει να ενημερώνονται τακτικά και να εκπαιδεύονται στις επερχόμενες τεχνικές σύνθεσης deepfake. Χρειάζεται επίσης να γίνουν ανθεκτικά σε αντίθετα παραδείγματα, ενσωματώνοντας αντίθετα βίντεο κατά τη διάρκεια της εκπαίδευσης."

ΕΝΑ χαρτί που περιγράφει αυτό το έργο, με τίτλο «Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples», παρουσιάστηκε πρόσφατα στο εικονικό συνέδριο WACV 2021.

Συστάσεις των συντακτών

  • Η τεχνητή νοημοσύνη μετέτρεψε το Breaking Bad σε anime - και είναι τρομακτικό
  • Γιατί η τεχνητή νοημοσύνη δεν θα κυβερνήσει ποτέ τον κόσμο
  • Οι οπτικές ψευδαισθήσεις θα μπορούσαν να μας βοηθήσουν να δημιουργήσουμε την επόμενη γενιά τεχνητής νοημοσύνης
  • Τελική πινελιά: Πώς οι επιστήμονες δίνουν στα ρομπότ ανθρώπινες απτικές αισθήσεις
  • Αναλογικό A.I.; Ακούγεται τρελό, αλλά μπορεί να είναι το μέλλον

Αναβαθμίστε τον τρόπο ζωής σαςΤο Digital Trends βοηθά τους αναγνώστες να παρακολουθούν τον γρήγορο κόσμο της τεχνολογίας με όλα τα τελευταία νέα, διασκεδαστικές κριτικές προϊόντων, διορατικά editorial και μοναδικές κρυφές ματιές.