Αυτό το αθώο πουλί που τραγουδάει το πρωινό του τραγούδι μπορεί τελικά να μην είναι τόσο αθώο. Σύμφωνα με επιστήμονες στο Ruhr-Universitaet στο Μπόχουμ της Γερμανίας, χειραγωγημένα ηχητικά κύματα από τους ήχους των πουλιών που κελαηδούν θα μπορούσαν να χρησιμοποιηθούν για να εξαπολύσουν επίθεση εναντίον βοηθών φωνής.
Σύμφωνα με τους ερευνητές, τα χειραγωγημένα αρχεία ήχου αποτελούν μέρος αυτού που ονομάζεται «αντίπαλη επίθεση». που έχει σχεδιαστεί για να μπερδεύει τα βαθιά νευρωνικά δίκτυα που βοηθούν τους βοηθούς με τεχνητή νοημοσύνη να αρέσουν της Apple Siri, της Google Βοηθόςκαι της Amazon Alexa λειτουργία.
Προτεινόμενα βίντεο
Χρησιμοποιώντας τον ήχο των πουλιών που κελαηδούν — ή επεξεργασμένες εκδόσεις τραγουδιών ή ανθρώπινη ομιλία — χειρίζονται με τρόπο που μόνο το μικρόφωνο στο έξυπνο ηχείο σας ή smartphone μπορεί να πάρει, η επίθεση παρακάμπτει την ανίχνευση από τα ανθρώπινα αυτιά και αρχίζει να ανακατεύεται με το A.I. βοηθός. Αυτό που ακούγεται σαν το τραγούδι ενός πουλιού θα μπορούσε στην πραγματικότητα να είναι μία από αυτές τις επιθέσεις με κρυφές εντολές που παραδίδονται στον φωνητικό βοηθό της επιλογής σας.
Σχετίζεται με
- Η προσέγγιση του Chrome για το Nvidia DLSS έχει ρυθμιστεί να κυκλοφορήσει, αλλά δεν μπορείτε να τη χρησιμοποιήσετε ακόμα
- 9 τρόποι με τους οποίους το Google Assistant μπορεί να βοηθήσει με την Ημέρα των Ευχαριστιών
- Οι ειδικοί προειδοποιούν ότι οι βοηθοί τεχνητής νοημοσύνης βλάπτουν την κοινωνική ανάπτυξη των παιδιών
Οι ερευνητές προτείνουν ότι οι επιθέσεις, οι οποίες χρησιμοποιούν ψυχοακουστική απόκρυψη για να κρύψουν τις πραγματικές τους προθέσεις, θα μπορούσαν να παιχτούν μέσω μιας εφαρμογής ή να κρυφτούν σε άλλο είδος εκπομπής. Για παράδειγμα, ο ήχος θα μπορούσε να κρυφτεί σε μια διαφήμιση που παίζει στην τηλεόραση ή στο ραδιόφωνο για να χτυπήσει χιλιάδες στόχους ταυτόχρονα.
«[Σε] ένα σενάριο χειρότερης περίπτωσης, ένας εισβολέας μπορεί να είναι σε θέση να καταλάβει ολόκληρο το σύστημα έξυπνου σπιτιού, συμπεριλαμβανομένων των καμερών ασφαλείας ή των συστημάτων συναγερμού», έγραψαν οι ερευνητές. Fast Company. Οργάνωσαν επίσης μια επίδειξη για να δείξουν πώς μια τέτοια επίθεση θα μπορούσε να χρησιμοποιηθεί για την απενεργοποίηση μιας κάμερας ασφαλείας.
Αυτή η θεωρητική επίθεση έχει μια ατάκα: οι ερευνητές δεν την έχουν ξεκινήσει ακόμη μέσω εκπομπής. Αντίθετα, έχουν τροφοδοτήσει τα διορθωμένα αρχεία που περιέχουν την εντολή κρυφού ήχου απευθείας στους βοηθούς, ώστε να ακούν το μήνυμα καθαρά. Ωστόσο, οι επιστήμονες είναι βέβαιοι ότι η επίθεση θα μπορούσε να πραγματοποιηθεί με άλλο μέσο. «Γενικά, είναι δυνατό να αποκρύψετε οποιαδήποτε μεταγραφή σε οποιοδήποτε αρχείο ήχου με ποσοστό επιτυχίας σχεδόν 100 τοις εκατό», κατέληξαν στην εργασία τους.
Δεν υπάρχουν πολλοί τρόποι άμυνας έναντι μιας τέτοιας επίθεσης, η οποία, για να είμαστε ξεκάθαροι, θα απαιτούσε αρκετή προσπάθεια για να την εκτελέσει κάποιος και είναι απίθανο, ακόμη και αν είναι δυνατόν. Χρησιμοποιήστε τις ρυθμίσεις ασφαλείας στον φωνητικό βοηθό της επιλογής σας για να αποτρέψετε οποιαδήποτε πρόσβαση σε ευαίσθητες πληροφορίες. Επί Alexa, για παράδειγμα, μπορείτε απαιτούν PIN πρέπει να παρέχονται πριν από την ολοκλήρωση μιας αγοράς.
Συστάσεις των συντακτών
- Τι είναι το Amazon Alexa και τι μπορεί να κάνει;
- Οι καλύτερες δεξιότητες Alexa για χρήση στο Amazon Echo το 2023
- Πώς να βρείτε φαντάσματα με την Alexa (και άλλες τρομακτικές δεξιότητες)
- Πώς να πουλήσετε τους γονείς σας σε έναν έξυπνο βοηθό
- 5 μοναδικές και δημιουργικές χρήσεις για τη λειτουργία ανίχνευσης ήχου της Alexa
Αναβαθμίστε τον τρόπο ζωής σαςΤο Digital Trends βοηθά τους αναγνώστες να παρακολουθούν τον γρήγορο κόσμο της τεχνολογίας με όλα τα τελευταία νέα, διασκεδαστικές κριτικές προϊόντων, διορατικά editorial και μοναδικές κρυφές ματιές.