ჩიტების ჭიკჭიკს შეუძლია გატეხოს ხმოვანი ასისტენტები, როგორიცაა Alexa

BestAI ასისტენტი/Flickr

ეს უდანაშაულო ჟღერადობის ჩიტი, რომელიც მღერის თავის დილის სიმღერას, შეიძლება ბოლოს და ბოლოს არც ისე უდანაშაულო იყოს. ბოხუმში, გერმანიაში, Ruhr-Universitaet-ის მეცნიერთა აზრით, ჩიტების ჭიკჭიკზე მანიპულირებული აუდიო ტალღები შეიძლება გამოყენებულ იქნას ხმის დამხმარეებზე თავდასხმის განსახორციელებლად.

მკვლევარების აზრით, მანიპულირებული აუდიო ფაილები არის ნაწილი, რასაც ეწოდება "მოწინააღმდეგე შეტევა". რომელიც შექმნილია ღრმა ნერვული ქსელების დასაბნევად, რაც ეხმარება ხელოვნური ინტელექტის მქონე ასისტენტებს მოსწონთ Apple-ის სირი, Google-ის ასისტენტიდა ამაზონის ალექსა ფუნქცია.

რეკომენდებული ვიდეოები

ჩიტების ჭიკჭიკის ხმის გამოყენებით - ან სიმღერების რედაქტირებული ვერსიების ან ადამიანის მეტყველების - მანიპულირებული ისე, რომ მხოლოდ მიკროფონი თქვენს სმარტ დინამიკზე ან სმარტფონი შეუძლია შეასრულოს, შეტევა გვერდს უვლის ადამიანის ყურებიდან ამოცნობას და იწყებს ჩარევას A.I. ასისტენტი. ის, რაც ჩიტის სიმღერას ჰგავს, შეიძლება რეალურად იყოს ერთ-ერთი ასეთი შეტევა ფარული ბრძანებებით, რომელიც მიეწოდება თქვენს არჩეულ ხმოვან ასისტენტს.

დაკავშირებული

  • Nvidia DLSS-ის Chrome-ის აღქმა გაშვებულია, მაგრამ თქვენ ჯერ ვერ გამოიყენებთ
  • 9 გზა Google Assistant-ს შეუძლია დაგეხმაროთ მადლიერების დღესთან დაკავშირებით
  • ექსპერტები აფრთხილებენ, რომ ხელოვნური ინტელექტის ასისტენტები ზიანს აყენებენ ბავშვების სოციალურ განვითარებას

მკვლევარები ვარაუდობენ, რომ თავდასხმები, რომლებიც იყენებენ ფსიქოაკუსტიკური დამალვას მათი ნამდვილი განზრახვების დასაფარად, შეიძლება განხორციელდეს აპლიკაციის საშუალებით ან დამალული იყოს სხვა ტიპის მაუწყებლობაში. მაგალითად, ხმა შეიძლება დამალული იყოს რეკლამაში, რომელიც უკრავს ტელევიზორში ან რადიოში, რათა ერთდროულად მოხვდეს ათასობით სამიზნეზე.

”[ყველაზე უარეს შემთხვევაში, თავდამსხმელს შეუძლია დაიპყროს ჭკვიანი სახლის მთელი სისტემა, უსაფრთხოების კამერების ან განგაშის სისტემების ჩათვლით,” - წერენ მკვლევარები. სწრაფი კომპანია. მათ ასევე მოაწყვეს დემონსტრაცია, რათა ეჩვენებინათ, თუ როგორ შეიძლება ასეთი თავდასხმის გამოყენება უსაფრთხოების კამერის დეაქტივაციისთვის.

ამ თეორიულ თავდასხმას აქვს დაჭერა: მკვლევარებს ის ჯერ არ დაუწყიათ მაუწყებლობის საშუალებით. ამის ნაცვლად, მათ შეიტანეს დახვეწილი ფაილები, რომლებიც შეიცავს ფარული აუდიო ბრძანებას პირდაპირ ასისტენტებში, რათა მათ ნათლად მოისმინონ შეტყობინება. თუმცა, მეცნიერები დარწმუნებულნი არიან, რომ თავდასხმა სხვა გზით შეიძლება განხორციელდეს. ”ზოგადად, შესაძლებელია ნებისმიერი ტრანსკრიფციის დამალვა ნებისმიერ აუდიო ფაილში, წარმატების კოეფიციენტით თითქმის 100 პროცენტით,” - დაასკვნეს მათ თავიანთ ნაშრომში.

ასეთი თავდასხმისგან თავის დასაცავად ბევრი გზა არ არსებობს, რაც, ნათლად რომ ვთქვათ, ვინმეს შესასრულებლად საკმაოდ დიდ ძალისხმევას მოითხოვს და ნაკლებად სავარაუდოა, თუნდაც ეს შესაძლებელია. გამოიყენეთ უსაფრთხოების პარამეტრები თქვენს არჩეულ ხმოვან ასისტენტზე, რათა თავიდან აიცილოთ რაიმე წვდომა სენსიტიურ ინფორმაციაზე. ჩართულია ალექსამაგალითად, შეგიძლიათ მოითხოვს PIN-ს შესყიდვის დასრულებამდე უნდა იყოს მოწოდებული.

რედაქტორების რეკომენდაციები

  • რა არის Amazon Alexa და რა შეუძლია მას?
  • Alexa-ს საუკეთესო უნარები თქვენს Amazon Echo-ზე გამოსაყენებლად 2023 წელს
  • როგორ მოვძებნოთ მოჩვენებები Alexa-ით (და სხვა საშინელი უნარებით)
  • როგორ გაყიდოთ მშობლები ჭკვიანი ასისტენტით
  • Alexa-ს ხმის ამოცნობის ფუნქციის 5 უნიკალური და კრეატიული გამოყენება

განაახლეთ თქვენი ცხოვრების წესიDigital Trends ეხმარება მკითხველს თვალყური ადევნონ ტექნოლოგიების სწრაფ სამყაროს ყველა უახლესი სიახლეებით, სახალისო პროდუქტების მიმოხილვებით, გამჭრიახი რედაქციებითა და უნიკალური თვალით.

კატეგორიები

Ბოლო

Microsoft და Ford გეგმავენ სინქრონიზაციას

Microsoft და Ford გეგმავენ სინქრონიზაციას

არსებობს ბევრი კარგი მიზეზი, რომ გქონდეთ ერთ-ერ...

ციფრული მუსიკის გაყიდვები "იშლება?"

ციფრული მუსიკის გაყიდვები "იშლება?"

Apple შესაძლოა, ბოლო კვარტალში თითქმის 40 მილიო...

Graveside მეხსიერების კაფსულა წარსულში შედის

Graveside მეხსიერების კაფსულა წარსულში შედის

წარმოიდგინეთ სცენა: არც თუ ისე შორეულ დისტოპიუ...