Μάλλον είστε εξοικειωμένοι με deepfakes, τα ψηφιακά τροποποιημένα «συνθετικά μέσα» που είναι ικανά να ξεγελάσουν τους ανθρώπους να δουν ή να ακούσουν πράγματα που δεν συνέβησαν ποτέ στην πραγματικότητα. Τα αντίθετα παραδείγματα είναι σαν τα deepfakes για A.I αναγνώρισης εικόνων. συστήματα — και ενώ δεν μας φαίνονται έστω και λίγο περίεργα, είναι ικανά να μπερδεύουν τις μηχανές.
Περιεχόμενα
- Αποκρούοντας τις αντίπαλες επιθέσεις
- Ακόμα περισσότερη δουλειά πρέπει να γίνει
Πριν από αρκετά χρόνια, ερευνητές στο Εργαστήριο Επιστήμης Υπολογιστών και Τεχνητής Νοημοσύνης του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης (CSAIL) διαπίστωσαν ότι θα μπορούσαν να ξεγελάσουν ακόμη και εξελιγμένους αλγόριθμους αναγνώρισης εικόνων και να μπερδέψουν αντικείμενα απλώς αλλάζοντας ελαφρά την επιφάνειά τους υφή. Δεν ήταν ούτε μικρές μπερδέματα.
Στην επίδειξη των ερευνητών, έδειξαν ότι ήταν δυνατό να αποκτήσει ένα νευρωνικό δίκτυο αιχμής για να κοιτάξει μια τρισδιάστατη εκτυπωμένη χελώνα και να δει ένα τουφέκι. Ή να κοιτάξετε ένα μπέιζμπολ και να καταλήξετε στο συμπέρασμα ότι είναι ένας εσπρέσο. Αν εμφανιζόταν τέτοια οπτική αγνωσία σε έναν άνθρωπο, θα ήταν το είδος της νευρολογικής μελέτης περίπτωσης που θα έβρισκε τον δρόμο της σε ένα βιβλίο όπως το κλασικό του Oliver Sacks
Ο άντρας που μπέρδεψε τη γυναίκα του με καπέλο.Προτεινόμενα βίντεο
Τα αντίθετα παραδείγματα αντιπροσωπεύουν μια συναρπαστική ευπάθεια όταν πρόκειται για την οπτική A.I. τα συστήματα βλέπουν τον κόσμο. Αλλά, όπως θα περίμενε κανείς από ένα ελάττωμα που μπερδεύει μια χελώνα καινοτόμο παιχνίδι με ένα τουφέκι, αντιπροσωπεύουν επίσης ένα δυνητικά ανησυχητικό. Είναι κάτι που οι ερευνητές ανακάλυψαν απεγνωσμένα πώς να επιδιορθώσουν.
Τώρα, μια άλλη ομάδα ερευνητών από το MIT έχει καταλήξει σε ένα νέο σύστημα που θα μπορούσε να βοηθήσει στην αποφυγή «αντιπαλικών» εισροών. Κατά τη διαδικασία, έχουν φανταστεί μια ειλικρινά τρομακτική περίπτωση χρήσης για αντίπαλα παραδείγματα, που θα μπορούσε, εάν εφαρμοστεί από χάκερ, να χρησιμοποιηθεί για θανατηφόρο αποτέλεσμα.
Το σενάριο είναι το εξής: Τα αυτόνομα αυτοκίνητα γίνονται όλο και καλύτερα στην αντίληψη του κόσμου γύρω τους. Τι θα γινόταν όμως αν, ξαφνικά, οι κάμερες ενός αυτοκινήτου που βασίζονται σε οπτική είσοδο είτε σκόπιμα είτε κατά λάθος κατέστησαν ανίκανες να αναγνωρίσουν τι ήταν μπροστά τους; Η εσφαλμένη κατηγοριοποίηση ενός αντικειμένου στο δρόμο - όπως η αποτυχία σωστής αναγνώρισης και τοποθέτησης ενός πεζού - θα μπορούσε δυνητικά να τελειώσει πολύ, πολύ άσχημα.
Αποκρούοντας τις αντίπαλες επιθέσεις
«Η ομάδα μας εργάζεται στη διεπαφή της βαθιάς μάθησης, της ρομποτικής και της θεωρίας ελέγχου εδώ και αρκετά χρόνια — μεταξύ άλλων εργαστείτε στη χρήση βαθιάς RL [ενισχυτική μάθηση] για να εκπαιδεύσετε ρομπότ να πλοηγούνται με κοινωνικά συνειδητοποιημένο τρόπο γύρω από τους πεζούς.» Μάικλ Έβερετ, ένας μεταδιδακτορικός ερευνητής στο Τμήμα Αεροναυτικής και Αστροναυτικής του MIT, είπε στο Digital Trends. «Καθώς σκεφτόμασταν πώς να μεταφέρουμε αυτές τις ιδέες σε μεγαλύτερα και ταχύτερα οχήματα, τα ζητήματα ασφάλειας και ευρωστίας έγιναν η μεγαλύτερη πρόκληση. Είδαμε μια εξαιρετική ευκαιρία να μελετήσουμε αυτό το πρόβλημα στη βαθιά μάθηση από την προοπτική του ισχυρού ελέγχου και της ισχυρής βελτιστοποίησης».
Κοινωνικά Ευαισθητοποιημένος Σχεδιασμός Κινήσεων με Βαθιά Ενισχυτική Μάθηση
Η ενισχυτική μάθηση είναι μια προσέγγιση που βασίζεται σε δοκιμές και σφάλματα στη μηχανική μάθηση, η οποία, ως γνωστόν, έχει χρησιμοποιηθεί από ερευνητές για βάλτε τους υπολογιστές να μάθουν να παίζουν βιντεοπαιχνίδια χωρίς να διδαχθεί ρητά πώς. Ο νέος αλγόριθμος ενισχυτικής μάθησης και βασισμένος σε βαθιά νευρωνικά δίκτυα της ομάδας ονομάζεται CARRL, συντομογραφία του Certified Adversarial Robustness for Deep Reinforcement Learning. Στην ουσία, είναι ένα νευρικό σύστημα με μια πρόσθετη δόση σκεπτικισμού όταν πρόκειται για αυτό που βλέπει.
Σε μια επίδειξη της δουλειάς τους, η οποία υποστηρίχθηκε από την Ford Motor Company, οι ερευνητές κατασκεύασαν έναν αλγόριθμο ενισχυτικής μάθησης ικανό να παίξει το κλασικό παιχνίδι Atari Πονγκ. Όμως, σε αντίθεση με τους προηγούμενους παίκτες παιχνιδιών RL, στην έκδοσή τους, εφάρμοσαν μια αντίθετη επίθεση που έριξε το A.I. εκτίμηση του πράκτορα για τη θέση της μπάλας του παιχνιδιού, κάνοντάς τον να πιστεύει ότι ήταν μερικά pixel χαμηλότερα από ό, τι στην πραγματικότητα ήταν. Κανονικά, αυτό θα έβαζε το A.I. παίκτης σε σημαντικό μειονέκτημα, με αποτέλεσμα να χάνει επανειλημμένα από τον αντίπαλο υπολογιστή. Σε αυτή την περίπτωση, ωστόσο, ο πράκτορας της RL σκέφτεται όλα τα σημεία της μπάλας θα μπορούσε είναι και, στη συνέχεια, τοποθετήστε το κουπί σε σημείο όπου δεν θα χάνεται ανεξάρτητα από τη μετατόπιση στη θέση του.
«Αυτή η νέα κατηγορία ισχυρών αλγορίθμων βαθιάς μάθησης θα είναι απαραίτητη για να φέρει πολλά υποσχόμενη A.I. τεχνικές στον πραγματικό κόσμο».
Φυσικά, τα παιχνίδια είναι πολύ πιο απλοποιημένα από τον πραγματικό κόσμο, όπως παραδέχεται εύκολα ο Everett.
«Ο πραγματικός κόσμος έχει πολύ μεγαλύτερη αβεβαιότητα από τα βιντεοπαιχνίδια, από ατελείς αισθητήρες ή αντίπαλες επιθέσεις, κάτι που μπορεί να είναι αρκετό για να ξεγελάσει τη βαθιά μάθηση συστήματα για τη λήψη επικίνδυνων αποφάσεων — [όπως] το βάψιμο με σπρέι μιας κουκκίδας στο δρόμο [που μπορεί να προκαλέσει ένα αυτοοδηγούμενο αυτοκίνητο] να εκτραπεί σε άλλη λωρίδα», εξήγησε. «Η εργασία μας παρουσιάζει έναν αλγόριθμο βαθιάς RL που είναι αποδεδειγμένα ανθεκτικός σε ατελείς μετρήσεις. Η βασική καινοτομία είναι ότι, αντί να εμπιστευόμαστε τυφλά τις μετρήσεις του, όπως γίνεται σήμερα, ο αλγόριθμός μας πιστεύει μέσω όλων των πιθανών μετρήσεων που θα μπορούσαν να είχαν γίνει και λαμβάνει μια απόφαση που λαμβάνει υπόψη τη χειρότερη περίπτωση αποτέλεσμα."
Σε μια άλλη επίδειξη, έδειξαν ότι ο αλγόριθμος μπορεί, σε ένα προσομοιωμένο πλαίσιο οδήγησης, να αποφύγει τις συγκρούσεις ακόμα και όταν οι αισθητήρες του δέχονται επίθεση από έναν αντίπαλο που θέλει τον πράκτορα να συγκρουστεί. «Αυτή η νέα κατηγορία ισχυρών αλγορίθμων βαθιάς μάθησης θα είναι απαραίτητη για να φέρει πολλά υποσχόμενη A.I. τεχνικές στον πραγματικό κόσμο», είπε ο Έβερετ.
Ακόμα περισσότερη δουλειά πρέπει να γίνει
Είναι ακόμη νωρίς για αυτή τη δουλειά, και πρέπει να γίνουν περισσότερα. Υπάρχει επίσης το πιθανό ζήτημα ότι αυτό θα μπορούσε, σε ορισμένα σενάρια, να προκαλέσει το A.I. πράκτορας να συμπεριφέρεται πολύ συντηρητικά, καθιστώντας έτσι λιγότερο αποτελεσματικό. Ωστόσο, είναι ένα πολύτιμο κομμάτι έρευνας που θα μπορούσε να έχει βαθιές επιπτώσεις στο μέλλον.
«[Υπάρχουν άλλα ερευνητικά έργα] που επικεντρώνονται στην προστασία από [ορισμένους τύπους] αντιπάλων παραδειγμάτων, όπου η δουλειά του νευρωνικού δικτύου είναι να ταξινομήστε μια εικόνα και είναι είτε σωστή [ή] λάθος, και η ιστορία τελειώνει εκεί», είπε ο Έβερετ, όταν ρωτήθηκε για το κλασικό τουφέκι χελώνας εναντίον πρόβλημα. «Η δουλειά μας βασίζεται σε ορισμένες από αυτές τις ιδέες, αλλά επικεντρώνεται στην ενισχυτική μάθηση, όπου ο πράκτορας πρέπει να αναλάβει δράση και να ανταμείβει εάν τα καταφέρει καλά. Επομένως, εξετάζουμε μια πιο μακροπρόθεσμη ερώτηση «Αν πω ότι είναι μια χελώνα, ποιες είναι οι μελλοντικές επιπτώσεις αυτής της απόφασης;» και εκεί είναι που ο αλγόριθμός μας μπορεί πραγματικά να βοηθήσει. Ο αλγόριθμός μας θα σκεφτόταν τις χειρότερες μελλοντικές συνέπειες της επιλογής είτε μιας χελώνας είτε ενός τουφεκιού, που θα μπορούσε να είναι ένα σημαντικό βήμα προς την επίλυση σημαντικών ζητημάτων ασφάλειας όταν η A.I. οι αποφάσεις των πρακτόρων έχουν μακροπρόθεσμη αποτέλεσμα."
Μια εργασία που περιγράφει την έρευνα είναι διαθέσιμο για ανάγνωση στο ηλεκτρονικό αποθετήριο προεκτύπωσης arXiv.
Συστάσεις των συντακτών
- Αναλογικό A.I.; Ακούγεται τρελό, αλλά μπορεί να είναι το μέλλον
- Δείτε τι αναλύει μια τάση A.I. πιστεύει ότι θα είναι το επόμενο μεγάλο πράγμα στην τεχνολογία
- Η Καλιφόρνια έχει πρόβλημα συσκότισης. Θα μπορούσαν οι μπαταρίες γιγαντιαίας ροής να είναι η λύση;
- Αλγοριθμική αρχιτεκτονική: Πρέπει να αφήσουμε το A.I. σχεδίαση κτιρίων για εμάς;
- Συναισθηματική A.I. είναι εδώ και θα μπορούσε να είναι στην επόμενη συνέντευξη εργασίας σας