გაწუხებთ FBI-ის ღრმა ყალბი გაფრთხილება? მიჰყევით ექსპერტების ამ რჩევებს

AI რენდერი ონლაინ ცუდი მსახიობის შესახებ
კრედიტი: Bing Image Generator

გასულ კვირას გამოძიების ფედერალურმა ბიურომ (FBI) საჯარო სამსახურის განცხადება გაავრცელა ღრმა ფეიკის გამოკვეთილი შინაარსის გაზრდის შესახებ და როგორ გამოიყენება ის დანაშაულებისთვის, როგორიცაა გამოძალვა, შანტაჟი და შევიწროება. უმარტივეს ტერმინებში, ღრმა ფეიქი არის სინთეზური მულტიმედიური მასალა, რომელიც ცდილობს ორიგინალის მიბაძვას. ეს შეიძლება იყოს ხელოვნური ინტელექტის თაობის ფოტო, ვიდეო ან აუდიო კლიპი.

შინაარსი

  • რას ამბობენ ექსპერტები ღრმა ფეიქებზე
  • როგორ შეგიძლიათ დაიცვათ თავი
  • სოციალური მედია კეთდება უსაფრთხოდ და პასუხისმგებლობით
  • რა უნდა გააკეთოთ, თუ ღრმად გაყალბებული ხართ
  • როგორ ამოვიცნოთ ღრმა ფეიქი
  • სერიოზული პრობლემა ნახევრად ეფექტური გადაწყვეტილებებით

სახელწოდება "deepfake" მომდინარეობს ასეთი მედიის შესაქმნელად გამოყენებული თანდაყოლილი ტექნოლოგიიდან - ღრმა სწავლება - რომელიც გულისხმობს ხელოვნური ინტელექტის მოდელის მომზადებას ორიგინალური მასალის გამოყენებით და შემდეგ მის შეცვლას სასურველის შესაქმნელად შედეგები. ეს არ არის ზუსტად ახალი გამოგონება, მაგრამ

გენერაციული AI პოპულარობით აფეთქდა - და ხელმისაწვდომობა - ღრმა ყალბი დანაშაულებები იზრდება.

რეკომენდებული ვიდეოები

ისეთი პოპულარობაა, რომ რესპუბლიკელი საპრეზიდენტო კანდიდატის, რონ დესანტისის კამპანიაც კი გამოიყენა კონკურენტი დონალდ ტრამპის ღრმა ყალბი გამოსახულებები მის გასაკრიტიკებლად. Deepfakes ასევე არის ერთ-ერთი მიზეზი იმისა, რომ AI-ის რეგულირების მოწოდებები ყველგან ჩნდება. FBI-ის თანახმად, ღრმა ფეიქების გენერირების კონტენტი ზოგადად ამოღებულია სოციალური მედიის პოსტებიდან და ვიდეო ზარის კლიპები, სანამ არ გადაიქცევიან სექსუალურ მასალებში გამოძალვისა და დაშინების მიზნით.

დაკავშირებული

  • ChatGPT-ის შემქმნელი OpenAI-ის წინაშე დგას FTC გამოძიება მომხმარებელთა დაცვის კანონების გამო
  • ChatGPT ვებსაიტის ტრაფიკი პირველად დაეცა
  • OpenAI აშენებს ახალ გუნდს, რათა შეაჩეროს სუპერინტელექტუალური ხელოვნური ინტელექტის მოტყუება

რას ამბობენ ექსპერტები ღრმა ფეიქებზე

ადამიანის AI რენდერი, რომელიც ასახავს სმარტფონის მომხმარებელს
კრედიტი: Bing Image Generator

მაშ, რა არის გამოსავალი? სამწუხაროდ, გამოსავალი არ არის. ყოველ შემთხვევაში, არა კომპრომისის წასვლის გარეშე - ისეთი, რომელიც ფუნდამენტურად აბრუნებს „სოციალური მედიის“ მთელ მნიშვნელობას.

„სამწუხაროდ, ერთადერთი გზა იმისთვის, რომ დარწმუნდეთ, რომ არცერთი თქვენი ფოტო ან ვიდეო არ გამოიყენება ღრმა ყალბების შესაქმნელად, არის რაიმეს გამოქვეყნების შეწყვეტა. თქვენი ფოტოები ინტერნეტში, მაგრამ ეს დიდ სიამოვნებას მიიღებს ინტერნეტის მომხმარებლებისგან,” - ამბობს ადრიანუს ვარმენჰოვენი, კიბერუსაფრთხოება მრჩეველი at ნორდ.

„როგორც ჩნდება უსაფრთხოების ახალი და უკეთესი პრაქტიკა, მავნე აქტორები იპოვიან ზიანის მიყენების გზას. ეს არის დაჭერის თამაში და ზოგჯერ იმედგაცრუებულად გრძნობს თავს“, - ამბობს პარტეკ სარანი, ყოფილი Google-ის თანამშრომელი და პაროლის მართვის შემდეგი თაობის ინსტრუმენტის შემქმნელი, ე.წ. უნო. ის ასევე გვთავაზობს, რომ უნდა სცადოთ და მიიღოთ "ნულოვანი ნდობის ფილოსოფია", როდესაც საქმე ეხება გამოქვეყნებას. კონტენტი სოციალურ მედიაში და ხაზს უსვამს ეფექტურ კომუნიკაციას ნაცნობებთან, რათა თავიდან აიცილოთ ღრმა ფაქიზი თაღლითები.

„მიუხედავად იმისა, რომ AI-ს შეუძლია დაეხმაროს ციფრული უსაფრთხოების პრობლემების მოგვარებაში, არ არსებობს უგუნური უსაფრთხოების ქსელი“, - ამბობს იარონ ლიტვინი, ციფრული უსაფრთხოების ექსპერტი და CMO. ტილო. კომპანიის სახელობის აპლიკაცია მიზნად ისახავს ბავშვების დაცვას ონლაინ სექსუალური დანაშაულებისგან და გთავაზობთ მშობელთა კონტროლის მრავალფეროვან კომპლექტს. Litwin დასძენს, რომ თქვენ უნდა მოერიდოთ ინტიმური ან კომპრომატების გამოქვეყნებას და ასევე შეამციროთ ჩვეულებრივი სურათების გამოქვეყნების სიხშირე.

როგორ შეგიძლიათ დაიცვათ თავი

AI რენდერი ცუდი მსახიობის შესახებ, რომელიც ჯაშუშობს სხვა ადამიანს
კრედიტი: Bing Image Generator

Deepfakes შემზარავია და ძნელია იმის გააზრება, თუ რა ტრავმა შეიძლება მიაყენონ ადამიანს და მის ოჯახის წევრებს. მაგრამ არსებობს რამდენიმე გზა, რომლითაც მომხმარებლებს შეუძლიათ თავიდან აიცილონ ხაფანგში ჩავარდნა, ან, სულ მცირე, დიდი ზომით თავი აარიდონ.

იმის გასაგებად, თუ რა ნაბიჯებია საშუალო სმარტფონი ტიპიური ციფრული უნარების მქონე მომხმარებლებს შეუძლიათ მიიღონ, მე მივმართე ენდრიუ გარდნერს, კვლევისა და ინოვაციების ვიცე პრეზიდენტს. Gen Digital, პროგრამული უზრუნველყოფის კომპანია, რომელიც გთავაზობთ სანდო უსაფრთხოების ინსტრუმენტებს, როგორიცაა Norton, Avast და Avira, სხვათა შორის.

გარდნერი ამბობს, რომ უსაფრთხოების პროტოკოლები ფუნდამენტურ დონეზე იწყება. მომხმარებლებმა უნდა დაიწყონ თავიანთი პროფილების კონფიდენციალურად გადაქცევით – ან, სულ მცირე, შეცვალონ პოსტის ხილვადობის პარამეტრები ისე, რომ მხოლოდ იმ ადამიანებს შეეძლოთ მათი პოსტების ნახვა და ურთიერთქმედება. Მშობელთა კონტროლი, რომლებიც ახლა ხელმისაწვდომია თითქმის ყველა ძირითადი სოციალური მედიის პლატფორმისთვის, გულმოდგინედ უნდა იყოს ჩართული, რათა მეურვეებმა თვალი ადევნონ ნებისმიერ საეჭვო ინტერაქციას.

ზოგადი რჩევაა, რომ ადამიანმა უნდა მიიღოს მხოლოდ ნაცნობი ადამიანების მოთხოვნები, მაგრამ დამატებითი ნაბიჯის გადადგმა შეიძლება შორს წავიდეს. „თუ თქვენ ქსელში ხართ, შეამოწმეთ მოწვეულთა ბოლო პოსტები და აქტივობები, რათა შეაფასოთ რამდენად რეალურია ისინი“, ამბობს გარდნერი და დასძენს, რომ სიფრთხილით უნდა მოეკიდოთ „ანგარიშებს“. ცოტა მეგობრებთან ან საერთო მეგობრებთან ერთად“. კიდევ ერთი მნიშვნელოვანი რჩევა, რომელიც Gen Digital-ის აღმასრულებელმა უნდა მისცეს, არის სოციალური მედიის შემოწმება და შეზღუდვა შესვლა.

AI რენდერი, რომელშიც ნიღბიანი პირი ჯაშუშობს სხვა ადამიანს
კრედიტი: Bing Image Generator

მომხმარებლები ხშირად სტუმრობენ ონლაინ სერვისებს და ანგარიშის შექმნის სირთულეების თავიდან ასაცილებლად, ისინი აირჩევენ სოციალური მედიის შესვლის ვარიანტს. „ეს აძლევს აპებს წვდომას პერსონალურ ინფორმაციაზე და ზოგიერთ სიტუაციაში, ეს აპები ყიდიან ამ ინფორმაციას მესამე მხარეებს“, - ამბობს ის. Cambridge Analytica-ს სკანდალი Facebook-თან დაკავშირებით შესანიშნავი მაგალითია. პერიოდულად უნდა შემოწმდეს რომელი აპლიკაციებია დაკავშირებული მათ სოციალურ მედიის ანგარიშებთან და აუცილებლობის შემთხვევაში მათი წვდომა უნდა გაუქმდეს.

Deepfakes არის დახვეწილი ხელოვნური ინტელექტის მქონე დანაშაული, მაგრამ გარდნერი გვთავაზობს მომხმარებლებს მაინც დაიცვან უსაფრთხოების ძირითადი სახელმძღვანელო მითითებები. როგორც ორფაქტორიანი ავთენტიფიკაციის ჩართვა, ძლიერი პაროლების გამოყენება, ბიომეტრიული გასაღებების ჩართვა და ნებისმიერი საეჭვო ან უცნობი თავიდან აცილება ბმულები.

სოციალური მედია კეთდება უსაფრთხოდ და პასუხისმგებლობით

AI რენდერი ხალხის სელფებზე დაწკაპუნებით.
კრედიტი: Bing Image Generator

Canopy's Litwin თვლის, რომ რაც უფრო მეტს აზიარებთ, მით უფრო ადვილი ხდება დამაჯერებელი ღრმა ფეიკის შექმნა. არ არსებობს ჩრდილოვანი AI გამოსახულების გენერირების მოდელების ნაკლებობა აშკარა მასალის შექმნის შეზღუდვის გარეშე. ეს ხელსაწყოები ეყრდნობა გამოსახულების შეყვანას მოდელის მოსამზადებლად. რაც უფრო მეტია ტრენინგის მონაცემები, მით უფრო ზუსტი და რეალისტური ხდება ღრმა ფეიქი.

ეს არის სტანდარტული ტაქტიკა, რომელსაც ახორციელებენ ძირითადი AI გამოსახულების გენერატორები, როგორიცაა შუა მოგზაურობა. თუ თქვენი სოციალური არხი ღიაა და აქვს უამრავი ფოტო და ვიდეო, ცუდ მსახიობს არ შეუძლია შეაჩეროს ისინი, რომ გაანადგუროს ისინი, რომ შექმნას კომპრომეტირებული ღრმა ფეიქი. მაგრამ თუ თქვენ იმ ადამიანებს შორის ხართ, რომლებიც სოციალურ მედიაში მნიშვნელობას ხედავენ, როგორც ადგილად თქვენი ყველაზე საყვარელი მოგონებების შესანარჩუნებლად, არსებობს რამდენიმე ზომა უნდა მიიღოს.

Twitter-ის აპლიკაციის გამოყენება Xiaomi 13 Pro-ზე.
ენდი ბოქსალი/ციფრული ტენდენციები

„ფრთხილად იყავით, თუ რა პერსონალურ ინფორმაციას აზიარებთ ონლაინ, შეცვალეთ კონფიდენციალურობის პარამეტრები თქვენს ანგარიშებზე, ჩართეთ ორფაქტორიანი ავთენტიფიკაცია და ყურადღებით გადახედეთ სურათებს ნებისმიერი ხარვეზისთვის“, აღნიშნავს. ბოიდ კლევისი, კიბერუსაფრთხოების ექსპერტი Forbes-ის უშიშროების საბჭოში და ავტორი "Through The Firewall: The Alchemy of Turning Crisis Into Opportunity".

მაგრამ როგორ შეიძლება საიმედოდ ამოვიცნოთ სოციალური მედიის პროფილი, რომლის უკან, სავარაუდოდ, ცუდი მსახიობი დგას, რომელიც ჩართულია ჩრდილში, როგორიცაა ღრმა ფეიქების შექმნა და გავრცელება? „თუ ვიდეო ან აუდიო მასალა გაზიარებულია საეჭვო პროფილებიდან და ანგარიშები არ შეიცავს რაიმე პირად ინფორმაციას ან ფოტოები, სავარაუდოა, რომ პროფილი ყალბია“, - გვთავაზობს ტომას სამულისი, ინფორმაციული უსაფრთხოების არქიტექტორი Baltic Amadeus. ის ვარაუდობს, რომ ასეთი პროფილები, რომლებსაც არ გააჩნიათ პერსონალური იდენტიფიცირებადი ინფორმაცია, სპეციალურად შექმნილია ყალბი და სხვა საკამათო ინფორმაციის გასავრცელებლად“.

რა უნდა გააკეთოთ, თუ ღრმად გაყალბებული ხართ

ნიღბიანი ადამიანის AI რენდერი ტელეფონის გამოყენებით
კრედიტი: Bing Image Generator

მაგრამ არსებობს მხოლოდ იმდენი სიფრთხილის ზომები, რაც სმარტფონის საშუალო მომხმარებელს შეუძლია. ციფრული ცოდნის მქონე მომხმარებლებიც კი აღმოჩნდებიან კიბერდანაშაულების მიმღებ მხარეში, თუნდაც ამის შემდეგ ყველა სტანდარტული ხელსაწყოს გამოყენებით, როგორიცაა ორფაქტორიანი ავთენტიფიკაცია, პირადი პროფილები და ბიომეტრიული firewalls.

თუ, მიუხედავად ყველა სიფრთხილის ზომების მიღებისა, მაინც აღმოჩნდებით ღრმა ყალბი დანაშაულის ცენტრში, მიმართეთ ექსპერტთა რჩევას და დახმარებას ხელისუფლებისგან, ნაცვლად იმისა, რომ საქმე საკუთარ ხელში აიღოთ. ექსპერტები აღნიშნავენ, რომ მსგავს შევიწროებაზე ჯდომა ან მისი დამოუკიდებლად გამკლავების მცდელობა ხშირად აუარესებს მსხვერპლთა მდგომარეობას.

„თუ აღმოაჩენთ, რომ ვინმე არასწორად იყენებს თქვენს კონტენტს, მოიძიეთ საავტორო უფლებების შესახებ კანონის მცოდნე კონსულტანტი, რომელიც დაგეხმარებათ კონტენტის წაშლაში რაც შეიძლება სწრაფად“, - ამბობს რობ სკოტი, დალასის ადვოკატთა ასოციაციის წევრი და ლიცენზირებული იურიდიული ექსპერტი ისეთ სფეროებში, როგორიცაა კიბერუსაფრთხოების რისკი და მონაცემები. კონფიდენციალურობა.

იურიდიული ექსპერტის კონსულტაცია გადამწყვეტია, რადგან მათ შეუძლიათ გაგიწიონ თქვენი ციფრული უფლებები, Canopy's Litwin ასევე გთავაზობთ ყველა მტკიცებულება, რომელიც მსხვერპლს ურჩევს, „დაადასტურონ ნებისმიერი მტკიცებულება გამოძალვის მცდელობის შესახებ, როგორიცაა შეტყობინებები, ელ.წერილები ან კომუნიკაციის ნებისმიერი ფორმა, რომელიც დაკავშირებულია გამოძალვა“.

კიდევ ერთი მნიშვნელოვანი რჩევა არის ის, რომ მსხვერპლმა დაუყოვნებლივ უნდა შეწყვიტოს ყველა კონტაქტი კრიმინალთან, რადგან კრიმინალს შეუძლია შემდგომი მანიპულირება ან შევიწროება უფრო სერიოზული გამოძალვის მოთხოვნებით. ამავდროულად, მომხმარებლებმა უნდა დაუკავშირდნენ კიბერუსაფრთხოების ექსპერტს ან დარეკონ მთავრობის კიბერდანაშაულთან დაკავშირებული დახმარების ხაზი, რათა დროულად მიიღონ სწორი ზომები.

როგორ ამოვიცნოთ ღრმა ფეიქი

AI ადამიანის სახის რენდერი
კრედიტი: Bing Image Generator

ხელოვნური ინტელექტის ძრავები სულ უფრო დახვეწილი ხდება, მათ მიერ წარმოებული ღრმა ფეიქი საოცრად რეალური და ძნელი შესამჩნევი ხდება. თუმცა, ჯერ კიდევ არის რამდენიმე მარკერი, რომელსაც მომხმარებლებს შეუძლიათ ყურადღება მიაქციონ, რათა აღმოაჩინონ სინთეზურად შეცვლილი ან ხელოვნური ინტელექტის გამომუშავებული კომპრომატები.

ქვემოთ მოცემულია ღრმა ყალბი იდენტიფიკატორების კრებული, რომლებიც ექსპერტებმა უნდა შესთავაზონ:

  • დააკვირდით თვალის არაბუნებრივი მოძრაობებს. თუ ადამიანს თვალები არ ციმციმებს, თვალის მოძრაობა გამორთულია, ან სახის გამონათქვამები არ არის სინქრონიზებული მის მიერ წარმოთქმულ სიტყვებთან, ეს, სავარაუდოდ, ღრმა ყალბი კლიპია. ემოციების ნაკლებობა ან არათანმიმდევრული ემოციები არის იმის მანიშნებელი, რომ მედია ციფრულად შეიცვალა.
  • "Deepfake ტექნოლოგია, როგორც წესი, ფოკუსირებულია სახის მახასიათებლებზე", - ამბობს გარდნერი. „თუ ადამიანის სხეულის ფორმა ბუნებრივად არ გამოიყურება, ან თუ მისი მოძრაობები ცელქი და არაერთგვაროვანია, ვიდეო სავარაუდოდ ღრმა ფეიქია“.
  • კიდევ ერთი საიმედო მარკერი არის ფონი, რომელიც შეიძლება აღმოჩნდეს არაბუნებრივად ბუნდოვანი ან აჩვენოს უცნაური ვიზუალური არტეფაქტები. Deepfakes-ის აღმოსაჩენად კიდევ ერთი მარტივი გზა არის არანორმალური გაუფერულების ან ფერის სერიოზული შეუსაბამობის ძიება, განსაკუთრებით ირგვლივ არსებული ნივთების სახესა და ჩრდილთან მიმართებაში.
  • თუ წააწყდებით ფოტოს, რომელშიც ადამიანი ქანაობს „სრულყოფილ თმას“ და ვერ შეამჩნევთ რომელიმე ცალკეულ ელემენტს, როგორიც არის რამდენიმე ღერი თმის ღერი ან ღრიალი, იყავით ფრთხილად. ხელოვნური ინტელექტის მოდელები ასევე ცნობილია კბილებთან ბრძოლაში. ყურადღება მიაქციეთ კბილებს, რომლებიც ან არაბუნებრივად სრულყოფილია, ან ისეთ კბილებს, რომლებსაც არ აქვთ ცალკეული კბილების მონახაზი, ან შესაძლოა უფრო მეტი კბილი, ვიდრე ჩვეულებრივი ადამიანის პროთეზი.
  • სხეულის არასწორად მოთავსებული ნაწილები, ბუნდოვანი კიდეები, რამდენიმე ზედმეტი ან ნაკლები თითი, უცნაურად შეკუმშული კიდურები, არასინქრონული მოძრაობა სხეულის ნაწილები და ხმა, რომელსაც მოკლებულია პაუზები და ემოციური შესვენებები სხვა ნიშნებია, რომლებსაც ყურადღებით უნდა უფრთხილდეთ ამისთვის. „ყალბი ხმები ან აუდიო ჩანაწერები ხშირად აქვთ ფონური ხმაური, რობოტიზირებული ხმები და უცნაური გამოთქმა“, - განმარტავს სამულისი.

სერიოზული პრობლემა ნახევრად ეფექტური გადაწყვეტილებებით

AI რენდერი, რომელსაც ადამიანი უყურებს ტელეფონით
კრედიტი: Bing Image Generator

როგორც ზემოთ ავღნიშნეთ, არ არსებობს უგუნური უსაფრთხოების ბადე ღრმა ფეიქებისგან. მაგრამ თუ ფრთხილად იქნებით, სად აზიარებთ ფოტოებს, ვის შეუძლია მათი ნახვა და რამდენად შორს მიდის თქვენი წვდომა სოციალურ მედიაში, შეგიძლიათ დარჩეთ შედარებით უსაფრთხო ზონაში.

ყურადღება უნდა მიაქციოთ იმასაც, თუ ვინ არიან მათი ონლაინ მეგობრები და ასევე შეამოწმოთ ახალი მოწვევის საქმიანობა, სანამ მათ დაამატებთ მათ მეგობრების წრეში სოციალურ მედიაში. რაც შეეხება ღრმა ფეიკებს, ეს ცოტა რთულია. მაგრამ თუ ფხიზლად იქნებით და დრო დაუთმოთ საეჭვო ფოტოსა თუ ვიდეოში არსებული შეუსაბამობების შესაფასებლად, ღრმა ფეიქი შეიძლება საკმაოდ მაღალი სიზუსტით შეინიშნოს.

დღის ბოლოს, საქმე ეხება ჰიგიენური ონლაინ ჩვევების განვითარებას და სიფხიზლის შენარჩუნებას მზარდი გაყალბებისკენ მიდრეკილ ონლაინ სივრცეში.

რედაქტორების რეკომენდაციები

  • Google Bard-ს ახლა შეუძლია ლაპარაკი, მაგრამ შეუძლია თუ არა მას ჩაახშოს ChatGPT?
  • ელონ მასკის ახალი AI კომპანია მიზნად ისახავს "სამყაროს გაგებას"
  • მეცნიერები ამბობენ, რომ ხელოვნური ინტელექტის გარღვევა შესაძლოა ფუტკრის ტვინის მეშვეობით მოხდეს
  • OpenAI ავლენს მისი პირველი საერთაშორისო ფორპოსტის ადგილს
  • 81% ფიქრობს, რომ ChatGPT არის უსაფრთხოების რისკი, გამოკითხვის თანახმად

კატეგორიები

Ბოლო

ახალი Dell XPS 13 სრულიად ამცირებს MacBook Air-ს

ახალი Dell XPS 13 სრულიად ამცირებს MacBook Air-ს

The 2022 Dell XPS 13 აღნიშნავს მკვეთრ შემობრუნე...

იყავი გულწრფელი: თქვენს მომავალ ლეპტოპს არ სჭირდება ყურსასმენის ჯეკი

იყავი გულწრფელი: თქვენს მომავალ ლეპტოპს არ სჭირდება ყურსასმენის ჯეკი

უკვე წლებია, რაც გვიწევს მსჯელობა ანალოგური ყურ...

როგორ დავიცვათ თავი ხმაურით გამოწვეული სმენის დაკარგვისგან

როგორ დავიცვათ თავი ხმაურით გამოწვეული სმენის დაკარგვისგან

დარწმუნებული ვარ, მე არ ვარ პირველი ადამიანი, ვ...