Deepfake-სა და Deepfake Detector-ებს შორის ომის შიგნით

წარმოიდგინეთ საინტერესო ფილმი მსოფლიოს უდიდეს დეტექტივთან ჭკუის ომში ჩაკეტილ ოსტატ კრიმინალზე.

შინაარსი

  • ღრმა ფეიკის პრობლემა
  • დეტექტორების მოტყუება
  • Deepfake კატა და თაგვის თამაში

კრიმინალი ცდილობს გამოიყენოს მასიური ნდობის ხრიკი, იყენებს პროფესიონალურ ჭკუას და უცნაურ უნარს, შენიღბვას, როგორც პრაქტიკულად ნებისმიერ პლანეტაზე. ის იმდენად კარგია იმაში, რასაც აკეთებს, რომ შეუძლია ხალხს დააჯეროს, რომ დაინახეს ისეთი რამ, რაც სინამდვილეში არასდროს მომხდარა.

რეკომენდებული ვიდეოები

მაგრამ შემდეგ ჩვენ ვხვდებით დეტექტივს. ის არის ბრწყინვალე, არაფრისმთქმელი ადამიანი, რომელსაც შეუძლია შეამჩნიოს ნებისმიერი ქურდის "თქმა". მან იცის რა უნდა მოძებნოს და ყველაზე პატარა საქციელიც კი - აქ წარბი აწეული, იქ ჩამოვარდნილი ხმოვანი - საკმარისია იმისთვის, რომ გააფრთხილოს, როცა რაღაც უხერხულია. ის ერთადერთი ადამიანია, ვინც ოდესმე დაიჭირა ჩვენი ანტაგონისტი და ახლა კიდევ ერთხელ დგას მის კვალზე.

დაკავშირებული

  • ციფრული ტენდენციების Tech For Change CES 2023 ჯილდოები
  • მეტას სურს გადაიხადოს ვიკიპედია AI განახლებით
  • როგორ გავიგოთ, როდის ხდება AI რეალურად მგრძნობიარე?

თუმცა, არის პრობლემა: ჩვენმა ქურდმა ეს იცის ის იცის რა მოძებნოს. შედეგად, მან შეცვალა თამაში ისე, რომ მთავარი გმირი არ აცნობიერებს ამას.

ღრმა ფეიკის პრობლემა

ეს არის, არსებითად, ღრმა ფეიქისა და ღრმა ფეიკის აღმოჩენის ისტორია. Deepfakes, სინთეზური მედიის ფორმა, რომელშიც ადამიანების მსგავსება შეიძლება ციფრულად შეიცვალოს, როგორც სახე/გამორთვა რიმეიკი რეჟისორი A.I. მკვლევარები შეშფოთების მიზეზი გახდნენ მას შემდეგ, რაც ისინი გამოჩნდნენ სცენაზე 2017 წელს. მიუხედავად იმისა, რომ ბევრი ღრმა ფეიქი არის მსუბუქი (გაცვლა Arnie for Sly Stallone in ტერმინატორი), ისინი ასევე წარმოადგენენ პოტენციურ საფრთხეს. Deepfakes გამოიყენებოდა ყალბი პორნოგრაფიული ვიდეოების შესაქმნელად, რომლებიც რეალურად გამოიყურებოდა და ისინი გამოიყენებოდა პოლიტიკურ ხუმრობაში, ასევე ფინანსურ თაღლითობაში.

იმისათვის, რომ ასეთი ხუმრობა კიდევ უფრო დიდ პრობლემად არ იქცეს, ვინმემ უნდა შეძლოს ჩარევა და თქვას, როდის გამოიყენება ღრმა ფეიქი და როდის არა.

„Deepfake-ის დეტექტორები მუშაობენ ღრმა ყალბის იმ დეტალების მოძიებით, რომლებიც არ არის სწორი, ათვალიერებენ არა მხოლოდ უჩვეულო ხეობებს, არამედ ყველაზე პატარა გაუგებარ ხვრელს“.

დიდი ხანი არ გასულა პირველი ღრმა ყალბი დეტექტორების გამოჩენამდე. 2018 წლის აპრილისთვის დავფარე ამის გაკეთების ერთ-ერთი ადრეული მცდელობა, რომელიც ააგეს გერმანიის მიუნხენის ტექნიკური უნივერსიტეტის მკვლევარებმა. ისევე როგორც თავად deepfake ტექნოლოგია, ის იყენებდა A.I. - მხოლოდ ამჯერად მისი შემქმნელები იყენებდნენ მას არა ყალბების შესაქმნელად, არამედ მათ დასანახად.

Deepfake-ის დეტექტორები მუშაობენ ღრმა Fake-ის იმ დეტალების მოძიებით, რომლებიც არ არის საკმაოდ სურათების დათვალიერებით არა მხოლოდ უცნაური ხეობების, არამედ ყველაზე პატარა უცნაური ხვრელის შესახებ. ისინი ამოიღებენ სახის მონაცემებს სურათებიდან და შემდეგ გადასცემენ მას ნერვულ ქსელში, რათა გაერკვნენ მისი ლეგიტიმურობა. გაჩუქების დეტალები შეიძლება შეიცავდეს ისეთ რაღაცეებს, როგორიცაა ცუდად რეპროდუცირებული თვალის დახამხამება.

მაგრამ ახლა კალიფორნიის სან დიეგოს უნივერსიტეტის მკვლევარებმა გამოიგონეს ღრმა ყალბი დეტექტორების დამარცხების ხერხი ვიდეო კადრებში მოწინააღმდეგე მაგალითების ჩასმით. საპირისპირო მაგალითები არის მომხიბლავი - მაგრამ საშინელი - ხარვეზი A.I. მატრიცა. მათ შეუძლიათ მოატყუონ ყველაზე ჭკვიანი ამოცნობის სისტემებიც კი, მაგალითად, ფიქრობს, რომ კუ არის იარაღი, ან ესპრესო არის ბეისბოლი. ისინი ამას აკეთებენ სურათში ხმაურის დახვეწილი დამატების გზით, რაც იწვევს ნერვულ ქსელს არასწორი კლასიფიკაციის გაკეთებას.

ისევე როგორც თოფის შეცდომით გაჭედილი ქვეწარმავალი. ან ყალბი ვიდეო ნამდვილისთვის.

დეტექტორების მოტყუება

„ბოლო დროს გახშირდა მეთოდები რეალისტური ღრმა Fake ვიდეოების გენერირებისთვის. პაართ ნეხარაგანუცხადა Digital Trends-ს UC San Diego-ს კომპიუტერული ინჟინერიის კურსდამთავრებულმა. „ვინაიდან ეს მანიპულირებული ვიდეოები შეიძლება გამოყენებულ იქნას მავნე მიზნებისთვის, დიდი ძალისხმევა გაკეთდა დეტექტორების შემუშავებაში, რომლებსაც შეუძლიათ საიმედოდ ამოიცნონ ღრმა ყალბი ვიდეოები. Მაგალითად, ფეისბუქი ცოტა ხნის წინ წამოიწყო Deepfake Detection Challenge, რათა დაეჩქარებინა კვლევები ღრმა ყალბი დეტექტორების შემუშავებაზე. [მაგრამ] მიუხედავად იმისა, რომ აღმოჩენის ამ მეთოდებს შეუძლიათ მიაღწიონ 90%-ზე მეტ სიზუსტეს ყალბი და რეალური ვიდეოების მონაცემთა ბაზაში, ჩვენი ნამუშევარი აჩვენებს, რომ თავდამსხმელი მათ ადვილად გვერდის ავლით შეუძლია. თავდამსხმელს შეუძლია ვიდეოს თითოეულ კადრში ადამიანის თვალისთვის საგულდაგულოდ შემუშავებული ხმაურის შეყვანა, რათა ის არასწორად იყოს კლასიფიცირებული მსხვერპლის დეტექტორის მიერ.

Facebook Deepfake Challenge

თავდამსხმელებს შეუძლიათ შექმნან ეს ვიდეოები მაშინაც კი, თუ მათ არ გააჩნიათ სპეციფიური ცოდნა დეტექტორის არქიტექტურისა და პარამეტრების შესახებ. ეს თავდასხმები ასევე კვლავ მუშაობს ვიდეოების შეკუმშვის შემდეგ, როგორც ეს მოხდება, თუ ისინი გაზიარებული იქნება ონლაინ პლატფორმაზე, როგორიცაა YouTube.

ტესტირებისას, მეთოდს 99%-ზე მეტს შეეძლო გამოეტყუებინა აღმოჩენის სისტემები, როდესაც მიეცა წვდომა დეტექტორის მოდელზე. თუმცა, წარმატების ყველაზე დაბალ დონეზეც კი - შეკუმშული ვიდეოებისთვის, რომლებშიც ინფორმაცია არ იყო ცნობილი დეტექტორის მოდელების შესახებ - მაინც დაამარცხა ისინი შემთხვევების 78,33%-ში. ეს არ არის დიდი სიახლე.

მკვლევარები უარს აცხადებენ თავიანთი კოდის გამოქვეყნებაზე იმის საფუძველზე, რომ მისი ბოროტად გამოყენება შეიძლება, აღნიშნა ნეხარამ. ”ჩვენი კოდის გამოყენებით წარმოქმნილ საპირისპირო ვიდეოებს შეუძლიათ პოტენციურად გვერდის ავლით სხვა უხილავი ღრმა ფეიკის დეტექტორები, რომლებსაც იყენებენ ზოგიერთი სოციალური მედიის [პლატფორმების] წარმოებაში,” - განმარტა მან. „ჩვენ ვთანამშრომლობთ გუნდებთან, რომლებიც მუშაობენ ღრმა სიყალბის აღმოჩენის სისტემების შექმნაზე და ვიყენებთ ჩვენს კვლევას უფრო ძლიერი აღმოჩენის სისტემების შესაქმნელად.

Deepfake კატა და თაგვის თამაში

ეს არ არის ისტორიის დასასრული, რა თქმა უნდა. ჩვენს კინოს ანალოგის რომ დავუბრუნდეთ, ეს მაინც მხოლოდ 20 წუთის შემდეგ იქნებოდა ფილმიდან. ჩვენ ჯერ არ მივსულვართ შემთხვევის ადგილზე, სადაც დეტექტივი ხვდება, რომ ქურდი ფიქრობს, რომ ის მოატყუა. ან იქამდე, სადაც ქურდი ხვდება, რომ დეტექტივმა იცის, რომ მან იცის, რომ მან იცის. ან.. თქვენ მიიღებთ სურათს.

ასეთი კატა-თაგვური თამაში ღრმა სიყალბის აღმოჩენისთვის, რომელიც სავარაუდოდ გაგრძელდება განუსაზღვრელი ვადით, კარგად არის ცნობილი ყველასთვის, ვინც მუშაობდა კიბერუსაფრთხოებაში. მავნე ჰაკერები პოულობენ დაუცველობებს, რომლებიც შემდეგ დაბლოკილია დეველოპერების მიერ, სანამ ჰაკერები იპოვიან დაუცველობას მათ ფიქსირებულ ვერსიაში, რომელიც შემდეგ კვლავ შესწორდება დეველოპერების მიერ. განაგრძეთ უსასრულოდ.

”დიახ, ღრმა ფეიკის გენერირებისა და გამოვლენის სისტემები მჭიდროდ მიჰყვება ვირუსისა და ანტივირუსის დინამიკას.” შეჰზეინ ჰუსეინი, UC San Diego კომპიუტერული ინჟინერიის დოქტორი. სტუდენტმა განუცხადა Digital Trends-ს. „ამჟამად ღრმა ყალბი დეტექტორები გაწვრთნილნი არიან რეალურ და ყალბ ვიდეოების მონაცემთა ბაზაზე, რომლებიც გენერირებულია ღრმა ყალბი სინთეზის არსებული ტექნიკის გამოყენებით. არ არსებობს გარანტია, რომ ასეთი დეტექტორები იქნება უგუნური მომავალი ღრმა თაობის სისტემების წინააღმდეგ... წინსვლისთვის შეიარაღების რბოლაში, აღმოჩენის მეთოდები რეგულარულად უნდა განახლდეს და წვრთნა მოხდეს ღრმა ფეიკის სინთეზის მოახლოებულ ტექნიკაზე. [ისინი] ასევე უნდა გაძლიერდეს საპირისპირო მაგალითებისთვის, ტრენინგის დროს მოწინააღმდეგე ვიდეოების ჩართვით.”

ქაღალდი, რომელიც აღწერს ამ სამუშაოს, სახელწოდებით "Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples", ახლახანს წარმოდგენილი იყო WACV 2021 ვირტუალურ კონფერენციაზე.

რედაქტორების რეკომენდაციები

  • AI-მა Breaking Bad ანიმედ აქცია - და ეს საშინელებაა
  • რატომ AI არასოდეს მართავს სამყაროს
  • ოპტიკური ილუზიები დაგვეხმარება შემდეგი თაობის ხელოვნური ინტელექტის შექმნაში
  • საბოლოო შეხება: როგორ აძლევენ მეცნიერები რობოტებს ადამიანის მსგავს ტაქტილურ გრძნობებს
  • ანალოგი A.I.? ეს გიჟურად ჟღერს, მაგრამ ეს შეიძლება იყოს მომავალი

განაახლეთ თქვენი ცხოვრების წესიDigital Trends ეხმარება მკითხველს თვალყური ადევნონ ტექნოლოგიების სწრაფ სამყაროს ყველა უახლესი სიახლეებით, სახალისო პროდუქტების მიმოხილვებით, გამჭრიახი რედაქციებითა და უნიკალური თვალით.

კატეგორიები

Ბოლო

Star Trek vs. ვარსკვლავური ომები: რომელია უკეთესი 2023 წელს?

Star Trek vs. ვარსკვლავური ომები: რომელია უკეთესი 2023 წელს?

სანამ ორივე არსება არსებობდა, სამეცნიერო ფანტას...

Flash-ის დასასრული, განმარტა

Flash-ის დასასრული, განმარტა

Warner Bros. სურათებიგაფრთხილება: ეს სტატია შეი...

ავატარი: პანდორას საზღვრები შეიცავს შესასწავლ მცურავ კუნძულებს

ავატარი: პანდორას საზღვრები შეიცავს შესასწავლ მცურავ კუნძულებს

ეს ამბავი ციფრული ტენდენციების საზაფხულო თამაშე...