
Την περασμένη εβδομάδα, το Ομοσπονδιακό Γραφείο Ερευνών (FBI) εξέδωσε ανακοίνωση δημόσιας υπηρεσίας σχετικά με την αύξηση του ρητού περιεχομένου deepfake και τον τρόπο χρήσης του για εγκλήματα όπως ο εκβιασμός, ο εκβιασμός και η παρενόχληση. Με τα πιο απλά λόγια, Το deepfake είναι συνθετικό υλικό πολυμέσων που προσπαθεί να μιμηθεί ένα πρωτότυπο. Μπορεί να είναι μια φωτογραφία, βίντεο ή κλιπ ήχου γενιάς AI.
Περιεχόμενα
- Τι λένε οι ειδικοί για τα deepfakes
- Πώς μπορείτε να κρατήσετε τον εαυτό σας ασφαλή
- Τα μέσα κοινωνικής δικτύωσης γίνονται με ασφάλεια και υπευθυνότητα
- Τι πρέπει να κάνετε εάν παθείτε βαθύ ψεύτικο
- Πώς να εντοπίσετε τα deepfakes
- Σοβαρό πρόβλημα με ημι-αποτελεσματικές λύσεις
Το όνομα "deepfake" προέρχεται από την εγγενή τεχνολογία που χρησιμοποιείται για τη δημιουργία τέτοιων μέσων - βαθιάς μάθησης - τα οποία περιλαμβάνει την εκπαίδευση ενός μοντέλου τεχνητής νοημοσύνης χρησιμοποιώντας πρωτότυπο υλικό και στη συνέχεια την τροποποίησή του για να δημιουργήσει το επιθυμητό Αποτελέσματα. Δεν είναι ακριβώς μια νέα εφεύρεση, αλλά με
Η γενετική τεχνητή νοημοσύνη εκρήγνυται σε δημοτικότητα — και πρόσβαση — τα βαθιά ψεύτικα εγκλήματα αυξάνονται.Προτεινόμενα βίντεο
Είναι τέτοια η δημοτικότητά τους που ακόμη και η εκστρατεία του Ρεπουμπλικανού υποψηφίου για την προεδρία Ρον Ντε Σάντις χρησιμοποίησε ψεύτικες εικόνες του αντιπάλου Ντόναλντ Τραμπ για να τον κακολογήσει. Τα Deepfakes είναι επίσης ένας από τους λόγους που οι εκκλήσεις για ρύθμιση της τεχνητής νοημοσύνης εγείρονται παντού. Σύμφωνα με το FBI, το περιεχόμενο για τη δημιουργία deepfakes γενικά αφαιρείται από τις αναρτήσεις στα μέσα κοινωνικής δικτύωσης και κλιπ βιντεοκλήσεων πριν μετατραπούν σε σεξουαλικό υλικό για εκβιασμό και εκφοβισμό.
Σχετίζεται με
- Ο κατασκευαστής ChatGPT OpenAI αντιμετωπίζει έρευνα της FTC σχετικά με τους νόμους περί προστασίας των καταναλωτών
- Η επισκεψιμότητα του ιστότοπου ChatGPT μειώθηκε για πρώτη φορά
- Η OpenAI χτίζει νέα ομάδα για να σταματήσει η υπερευφυής τεχνητή νοημοσύνη να γίνεται απατεώνας
Τι λένε οι ειδικοί για τα deepfakes

Λοιπόν, ποια είναι η λύση; Δυστυχώς δεν υπάρχει λύση. Τουλάχιστον, όχι χωρίς να γίνει ένας συμβιβασμός - ένας συμβιβασμός που ανατρέπει θεμελιωδώς όλη την έννοια των «social media».
«Δυστυχώς, ο μόνος τρόπος για να βεβαιωθείτε ότι καμία από τις φωτογραφίες ή τα βίντεό σας δεν χρησιμοποιείται για τη δημιουργία πλαστών είναι να σταματήσετε να δημοσιεύετε φωτογραφίες του εαυτού σας στο διαδίκτυο, αλλά αυτό θα έπαιρνε πολλή διασκέδαση από τους χρήστες του Διαδικτύου», λέει ο Adrianus Warmenhoven, υπεύθυνος για την ασφάλεια στον κυβερνοχώρο. σύμβουλος στο Nord.
«Καθώς εμφανίζονται νέες και καλύτερες πρακτικές ασφάλειας, οι κακόβουλοι παράγοντες θα βρουν έναν τρόπο να προκαλέσουν βλάβη. Είναι ένα παιχνίδι κάλυψης και μερικές φορές νιώθει απογοήτευση», λέει ο Parteek Saran, πρώην υπάλληλος της Google και δημιουργός ενός εργαλείου διαχείρισης κωδικών πρόσβασης επόμενης γενιάς που ονομάζεται ΟΗΕ. Προτείνει περαιτέρω ότι πρέπει να προσπαθήσουμε να υιοθετήσουμε μια «φιλοσοφία μηδενικής εμπιστοσύνης» όταν πρόκειται για ανάρτηση περιεχόμενο στα μέσα κοινωνικής δικτύωσης και τονίζει την αποτελεσματική επικοινωνία με γνωστούς για να αποφύγετε το deepfake απάτες.
«Ενώ η τεχνητή νοημοσύνη μπορεί να βοηθήσει στην αντιμετώπιση των ανησυχιών για την ψηφιακή ασφάλεια, δεν υπάρχει αλάνθαστο δίχτυ ασφαλείας», λέει ο Yaron Litwin, Expert & CMO Digital Safety στο Θόλος. Η ομώνυμη εφαρμογή της εταιρείας στοχεύει στην προστασία των παιδιών από διαδικτυακά σεξουαλικά εγκλήματα και προσφέρει επίσης μια ποικιλία γονικών ελέγχων. Η Litwin προσθέτει ότι θα πρέπει να αποφεύγετε τη δημοσίευση προσωπικών ή συμβιβαστικών εικόνων, ενώ παράλληλα μειώνετε τη συχνότητα δημοσίευσης ακόμη και κανονικών εικόνων.
Πώς μπορείτε να κρατήσετε τον εαυτό σας ασφαλή

Τα Deepfakes είναι τρομακτικά και είναι δύσκολο να καταλάβουμε το τραύμα που μπορούν να προκαλέσουν σε ένα άτομο και στα μέλη της οικογένειάς του. Υπάρχουν όμως μερικοί τρόποι με τους οποίους οι χρήστες μπορούν να αποφύγουν να πέσουν στην παγίδα ή τουλάχιστον να απομακρυνθούν σε μεγάλο βαθμό.
Για να καταλάβετε ποια βήματα είναι κατά μέσο όρο smartphone χρήστες με τυπικές ψηφιακές δεξιότητες μπορούν να αντέχουν, επικοινώνησα με τον Andrew Gardner, Αντιπρόεδρο Έρευνας και Καινοτομίας στο Gen Digital, μια εταιρεία λογισμικού που προσφέρει αξιόπιστα εργαλεία ασφαλείας όπως το Norton, το Avast και το Avira, μεταξύ άλλων.
Ο Gardner λέει ότι τα πρωτόκολλα ασφαλείας ξεκινούν από το θεμελιώδες επίπεδο. Οι χρήστες θα πρέπει να ξεκινήσουν κάνοντας τα προφίλ τους ιδιωτικά — ή τουλάχιστον να αλλάξουν τις ρυθμίσεις ορατότητας αναρτήσεων, έτσι ώστε μόνο τα άτομα που ακολουθούν αμοιβαία να μπορούν να βλέπουν και να αλληλεπιδρούν με τις αναρτήσεις τους. Γονικοί ελέγχοι, τα οποία είναι πλέον διαθέσιμα για σχεδόν κάθε μεγάλη πλατφόρμα κοινωνικής δικτύωσης, θα πρέπει να ενεργοποιηθούν επιμελώς, ώστε οι κηδεμόνες να μπορούν να παρακολουθούν τυχόν ύποπτες αλληλεπιδράσεις.
Είναι γενική συμβουλή ότι κάποιος πρέπει να δέχεται αιτήματα μόνο από άτομα που γνωρίζει, αλλά το να κάνει ένα επιπλέον βήμα μπορεί να βοηθήσει πολύ. «Εάν δικτυώνεστε, ελέγξτε τις πρόσφατες αναρτήσεις και τις δραστηριότητες των προσκεκλημένων για να μετρήσετε πόσο αληθινές είναι», λέει ο Gardner, προσθέτοντας ότι πρέπει να είστε προσεκτικοί με τους «λογαριασμούς με λίγους φίλους ή κοινούς φίλους». Μια άλλη κρίσιμη συμβουλή που πρέπει να δώσει το στέλεχος της Gen Digital είναι ο έλεγχος και ο περιορισμός των μέσων κοινωνικής δικτύωσης συνδέσεις.

Οι χρήστες επισκέπτονται συχνά τις διαδικτυακές υπηρεσίες και για να αποφύγουν την ταλαιπωρία της δημιουργίας λογαριασμού, επιλέγουν την επιλογή σύνδεσης στα μέσα κοινωνικής δικτύωσης. "Αυτό δίνει στις εφαρμογές πρόσβαση σε προσωπικές πληροφορίες και σε ορισμένες περιπτώσεις, αυτές οι εφαρμογές πωλούν αυτές τις πληροφορίες σε τρίτους", λέει. Το σκάνδαλο της Cambridge Analytica με το Facebook είναι ένα εξαιρετικό παράδειγμα. Θα πρέπει να ελέγχετε περιοδικά ποιες εφαρμογές είναι συνδεδεμένες με τους λογαριασμούς τους στα μέσα κοινωνικής δικτύωσης και, εκτός εάν είναι απαραίτητο, η πρόσβασή τους θα πρέπει να ανακληθεί.
Τα Deepfakes είναι εξελιγμένα εγκλήματα που βασίζονται σε τεχνητή νοημοσύνη, αλλά ο Gardner προτείνει στους χρήστες να εξακολουθούν να τηρούν ορισμένες βασικές οδηγίες ασφαλείας — όπως όπως η ενεργοποίηση του ελέγχου ταυτότητας δύο παραγόντων, η χρήση ισχυρών κωδικών πρόσβασης, η ενεργοποίηση βιομετρικών κλειδιών πρόσβασης και η αποφυγή οποιουδήποτε ύποπτου ή άγνωστου συνδέσεις.
Τα μέσα κοινωνικής δικτύωσης γίνονται με ασφάλεια και υπευθυνότητα

Το Canopy’s Litwin είναι της άποψης ότι όσο περισσότερα μοιράζεστε, τόσο πιο εύκολο γίνεται να δημιουργείτε πειστικά deepfakes. Δεν υπάρχει έλλειψη μοντέλων δημιουργίας σκιερών εικόνων AI χωρίς κανέναν περιορισμό στη δημιουργία ρητού υλικού. Αυτά τα εργαλεία βασίζονται σε εισόδους εικόνας για την εκπαίδευση του μοντέλου. Όσο περισσότερα δεδομένα εκπαίδευσης τροφοδοτούνται, τόσο πιο ακριβή και ρεαλιστικά γίνονται τα deepfakes.
Είναι η τυπική τακτική που εφαρμόζουν οι mainstream γεννήτριες εικόνων AI όπως MidJourney. Εάν η ροή κοινωνικής δικτύωσης είναι ανοιχτή και έχει άφθονο αριθμό φωτογραφιών και βίντεο, δεν υπάρχει κανένας εμπόδιος σε έναν κακό ηθοποιό από το να τα αποκόψει για να δημιουργήσει συμβιβαστικά deepfakes. Αλλά αν είστε από τους ανθρώπους που βλέπουν την αξία στα μέσα κοινωνικής δικτύωσης ως ένα μέρος για να διατηρήσετε τις πιο αγαπημένες σας αναμνήσεις, υπάρχουν μερικά μέτρα που πρέπει παίρνω.

"Να είστε προσεκτικοί σχετικά με τα προσωπικά στοιχεία που μοιράζεστε στο διαδίκτυο, να προσαρμόζετε τις ρυθμίσεις απορρήτου στους λογαριασμούς σας, να ενεργοποιείτε τον έλεγχο ταυτότητας δύο παραγόντων και να εξετάζετε προσεκτικά τις εικόνες για τυχόν ατέλειες", σημειώνει Μπόιντ Κλούις, εμπειρογνώμονας κυβερνοασφάλειας στο Συμβούλιο Ασφαλείας του Forbes και συγγραφέας του βιβλίου «Through The Firewall: The Alchemy Of Turning Crisis Into Opportunity».
Αλλά πώς να εντοπίσετε αξιόπιστα ένα προφίλ στα μέσα κοινωνικής δικτύωσης που πιθανότατα έχει έναν κακό ηθοποιό πίσω του, ο οποίος ασχολείται με σκοτεινές πράξεις όπως η δημιουργία και η διάδοση deepfakes; «Εάν κοινοποιηθεί υλικό βίντεο ή ήχου από ύποπτα προφίλ και οι λογαριασμοί δεν περιέχουν προσωπικά στοιχεία ή φωτογραφίες, είναι πιθανό το προφίλ να είναι ψεύτικο», προτείνει ο Tomas Samulis, αρχιτέκτονας ασφάλειας πληροφοριών στη Baltic Amadeus. Προτείνει ότι τέτοια προφίλ που δεν διαθέτουν στοιχεία προσωπικής ταυτοποίησης δημιουργούνται ειδικά για τη διάδοση πλαστών και άλλων αμφιλεγόμενων πληροφοριών».
Τι πρέπει να κάνετε εάν παθείτε βαθύ ψεύτικο

Αλλά υπάρχουν τόσες πολλές προφυλάξεις που μπορεί να λάβει ένας μέσος χρήστης smartphone. Ακόμη και οι πιο έξυπνοι χρήστες της ψηφιακής τεχνολογίας βρίσκονται στο άκρο των εγκλημάτων στον κυβερνοχώρο, ακόμη και μετά χρησιμοποιώντας όλα τα τυπικά εργαλεία, όπως έλεγχο ταυτότητας δύο παραγόντων, ιδιωτικά προφίλ και βιομετρικά τείχη προστασίας.
Εάν, παρόλο που λαμβάνετε όλες τις προφυλάξεις, εξακολουθείτε να βρίσκεστε στο επίκεντρο ενός ψεύτικο έγκλημα, αναζητήστε συμβουλές και βοήθεια από ειδικούς από τις αρχές αντί να πάρετε την κατάσταση στα χέρια σας. Οι ειδικοί σημειώνουν ότι το να κάθεται κανείς σε μια τέτοια παρενόχληση ή να προσπαθεί να το χειριστεί διακριτικά μόνο του συχνά επιδεινώνει την κατάσταση για τα θύματα.
«Εάν ανακαλύψετε ότι κάποιος κάνει κατάχρηση του περιεχομένου σας, ζητήστε σύμβουλο εξοικειωμένο με τη νομοθεσία περί πνευματικών δικαιωμάτων για να σας βοηθήσει να αφαιρέσετε το περιεχόμενο ως όσο το δυνατόν γρηγορότερα», λέει ο Rob Scott, μέλος του Δικηγορικού Συλλόγου του Ντάλας και αδειούχος νομικός εμπειρογνώμονας σε τομείς όπως ο κίνδυνος και τα δεδομένα στον κυβερνοχώρο μυστικότητα.
Η διαβούλευση με έναν νομικό εμπειρογνώμονα είναι ζωτικής σημασίας επειδή μπορεί να σας καθοδηγήσει στα ψηφιακά σας δικαιώματα, η Canopy's Litwin προτείνει επίσης τη διατήρηση όλων των αποδεικτικά στοιχεία, συμβουλεύοντας τα θύματα να «τεκμηριώσουν τυχόν αποδεικτικά στοιχεία για τις απόπειρες εκβίασης, όπως μηνύματα, email ή οποιαδήποτε μορφή επικοινωνίας που σχετίζεται με την εκβιασμός."
Μια άλλη κρίσιμη συμβουλή είναι ότι το θύμα πρέπει να σταματήσει αμέσως κάθε επαφή με έναν εγκληματία, επειδή ο εγκληματίας μπορεί να τον χειραγωγήσει ή να τον παρενοχλήσει περαιτέρω με πιο σοβαρές απαιτήσεις εκβιασμού. Ταυτόχρονα, οι χρήστες θα πρέπει να επικοινωνήσουν με έναν ειδικό στον τομέα της κυβερνοασφάλειας ή να καλέσουν μια από τις κυβερνητικές γραμμές βοήθειας για το έγκλημα στον κυβερνοχώρο για να λάβουν έγκαιρα τα σωστά μέτρα.
Πώς να εντοπίσετε τα deepfakes

Καθώς οι κινητήρες τεχνητής νοημοσύνης γίνονται όλο και πιο εξελιγμένοι, το είδος των deepfakes που παράγουν γίνεται τρομακτικά αληθινό και δύσκολο να εντοπιστεί. Ωστόσο, εξακολουθούν να υπάρχουν μερικοί δείκτες στους οποίους μπορούν να δώσουν προσοχή οι χρήστες για να εντοπίσουν συνθετικά τροποποιημένο υλικό ή υλικό που δημιουργείται από AI.
Ακολουθεί μια συλλογή από deepfake αναγνωριστικά που έχουν να προσφέρουν οι ειδικοί:
- Προσέξτε για αφύσικες κινήσεις των ματιών. Εάν τα μάτια ενός ατόμου δεν φαίνονται να αναβοσβήνουν, η κίνηση των ματιών είναι απενεργοποιημένη ή οι εκφράσεις του προσώπου δεν φαίνονται να συγχρονίζονται με τις λέξεις που λέει, πιθανότατα πρόκειται για ένα βαθύ ψεύτικο κλιπ. Η έλλειψη συναισθημάτων, ή τα ασυνάρτητα συναισθήματα, είναι ένας ενδεικτικός δείκτης ότι τα μέσα έχουν μεταμορφωθεί ψηφιακά.
- «Η τεχνολογία Deepfake συνήθως εστιάζει στα χαρακτηριστικά του προσώπου», λέει ο Gardner. «Αν το σχήμα του σώματος του ατόμου δεν φαίνεται φυσικό ή αν οι κινήσεις του είναι σπασμωδικές και ασύνδετες, το βίντεο είναι πιθανότατα ψεύτικο».
- Ένας άλλος αξιόπιστος δείκτης είναι το φόντο, το οποίο μπορεί να φαίνεται αφύσικα θολό ή να δείχνει περίεργα οπτικά τεχνουργήματα. Ένας άλλος εύκολος τρόπος για να εντοπίσετε τα deepfakes είναι να αναζητήσετε ανώμαλο αποχρωματισμό ή σοβαρή αναντιστοιχία χρωμάτων, ειδικά σε σχέση με το πρόσωπο και τη σκιά των αντικειμένων γύρω.
- Αν συναντήσετε μια φωτογραφία στην οποία ένα άτομο κουνάει «τέλεια μαλλιά» και δεν μπορείτε να εντοπίσετε μεμονωμένα στοιχεία, όπως μερικές τρίχες που πετούν ή φριζάρισμα, μείνετε προσεκτικοί. Τα μοντέλα AI είναι επίσης γνωστό ότι παλεύουν με τα δόντια. Προσέξτε για δόντια που είναι είτε αφύσικα τέλεια, είτε εκείνα που δεν έχουν περιγράμματα για μεμονωμένα δόντια, ή ίσως περισσότερα δόντια από τη συνηθισμένη ανθρώπινη οδοντοστοιχία.
- Μη ευθυγραμμισμένα μέρη του σώματος, θολές άκρες, μερικά επιπλέον ή λιγότερα δάχτυλα, περίεργα συστραμμένα άκρα, μη συγχρονισμένη κίνηση των μερών του σώματος και η φωνή χωρίς παύσεις και συναισθηματικά διαλείμματα είναι τα άλλα σημάδια που πρέπει να προσέξεις Για. «Οι ψεύτικες ηχογραφήσεις φωνής ή ήχου έχουν συχνά θόρυβο φόντου, ρομποτικές φωνές και περίεργες προφορές», εξηγεί ο Samulis.
Σοβαρό πρόβλημα με ημι-αποτελεσματικές λύσεις

Όπως εξηγήθηκε παραπάνω, δεν υπάρχει ανόητο δίχτυ ασφαλείας έναντι των deepfakes. Αλλά αν προσέχετε πού μοιράζεστε φωτογραφίες, ποιος μπορεί να τις δει και πόσο μακριά φτάνει η πρόσβασή σας στα μέσα κοινωνικής δικτύωσης, μπορείτε να παραμείνετε σε μια σχετικά ασφαλή ζώνη.
Θα πρέπει επίσης να προσέξει κανείς ποιοι είναι οι διαδικτυακοί του φίλοι και επίσης να ελέγξει τις δραστηριότητες των νέων προσκλήσεων πριν τις προσθέσει στον κύκλο φίλων του στα μέσα κοινωνικής δικτύωσης. Όσον αφορά τα deepfakes, αυτό είναι λίγο δύσκολο. Αλλά αν παραμείνετε σε εγρήγορση και αφιερώσετε χρόνο για να αξιολογήσετε τις ασυνέπειες σε μια ύποπτη φωτογραφία ή βίντεο, τα deepfakes μπορούν να εντοπιστούν με αρκετά υψηλό βαθμό ακρίβειας.
Στο τέλος της ημέρας, έχει να κάνει με την καλλιέργεια υγιεινών διαδικτυακών συνηθειών και την παραμονή σε επαγρύπνηση σε έναν ολοένα και πιο επιρρεπή σε πλαστογραφίες διαδικτυακό χώρο.
Συστάσεις των συντακτών
- Το Google Bard μπορεί τώρα να μιλήσει, αλλά μπορεί να πνίξει το ChatGPT;
- Η νέα εταιρεία τεχνητής νοημοσύνης του Έλον Μασκ στοχεύει να «κατανοήσει το σύμπαν»
- Οι ανακαλύψεις στην τεχνητή νοημοσύνη θα μπορούσαν να έρθουν μέσω του εγκεφάλου των μελισσών, λένε οι επιστήμονες
- Το OpenAI αποκαλύπτει την τοποθεσία του πρώτου διεθνούς φυλάκιου του
- Το 81% πιστεύει ότι το ChatGPT αποτελεί κίνδυνο για την ασφάλεια, σύμφωνα με έρευνα