Martwisz się ostrzeżeniem FBI o fałszywych informacjach? Postępuj zgodnie z tymi wskazówkami ekspertów

Sztuczna inteligencja renderuje online złego aktora
Źródło: Generator obrazów Bing

W ubiegłym tygodniu Federalne Biuro Śledcze (FBI) wydał obwieszczenie o służbie publicznej o wzroście liczby jawnych treści typu deepfake oraz o tym, jak są one wykorzystywane do przestępstw, takich jak wymuszenia, szantaż i nękanie. Mówiąc najprościej, deepfake to syntetyczny materiał multimedialny próbujący naśladować oryginał. Może to być zdjęcie, wideo lub klip audio generowany przez sztuczną inteligencję.

Zawartość

  • Co eksperci mówią o deepfake'ach
  • Jak możesz się zabezpieczyć
  • Media społecznościowe prowadzone bezpiecznie i odpowiedzialnie
  • Co zrobić, jeśli zostaniesz oszukany
  • Jak wykryć deepfake'i
  • Poważny problem z połowicznie skutecznymi rozwiązaniami

Nazwa „deepfake” pochodzi od nieodłącznej technologii wykorzystywanej do tworzenia takich mediów — głębokiego uczenia się — które obejmuje szkolenie modelu AI przy użyciu oryginalnego materiału, a następnie modyfikowanie go w celu wygenerowania pożądanego wyniki. To nie jest dokładnie nowy wynalazek, ale z

popularność generatywnej sztucznej inteligencji — i dostęp — rośnie liczba fałszywych przestępstw.

Polecane filmy

Ich popularność jest taka, że ​​nawet kampania republikańskiego kandydata na prezydenta, Rona DeSantisa, wykorzystała fałszywe zdjęcia rywala Donalda Trumpa, aby go oczernić. Deepfakes są również jednym z powodów, dla których wszędzie pojawiają się wezwania do uregulowania sztucznej inteligencji. Według FBI treści służące do generowania deepfake’ów są generalnie usuwane z postów w mediach społecznościowych i klipy rozmów wideo, zanim zostaną przekształcone w materiały o charakterze jednoznacznie seksualnym w celu wymuszenia i zastraszania.

Powiązany

  • Twórca ChatGPT OpenAI mierzy się z sondą FTC w sprawie przepisów dotyczących ochrony konsumentów
  • Ruch na stronie ChatGPT spadł po raz pierwszy
  • OpenAI buduje nowy zespół, aby powstrzymać superinteligentną sztuczną inteligencję przed zbuntowaniem się

Co eksperci mówią o deepfake'ach

AI renderuje osobę fotografującą użytkownika smartfona
Źródło: Generator obrazów Bing

Jakie jest rozwiązanie? Niestety nie ma rozwiązania. Przynajmniej nie bez kompromisu — takiego, który zasadniczo wywraca do góry nogami całe znaczenie „mediów społecznościowych”.

„Niestety, jedynym sposobem, aby upewnić się, że żadne z Twoich zdjęć ani filmów nie zostanie wykorzystane do tworzenia głębokich podróbek, jest zaprzestanie publikowania jakichkolwiek swoje zdjęcia w Internecie, ale internautom sprawiłoby to dużo frajdy” — mówi Adrianus Warmenhoven, specjalista ds. cyberbezpieczeństwa doradca w Nord.

„Wraz z pojawieniem się nowych i lepszych praktyk bezpieczeństwa złośliwi aktorzy znajdą sposób na wyrządzenie szkody. To gra polegająca na nadrabianiu zaległości i czasami jest rozczarowująca” — mówi Parteek Saran, były Googler i twórca narzędzia nowej generacji do zarządzania hasłami o nazwie ONZ. Ponadto sugeruje, że jeśli chodzi o delegowanie, należy spróbować przyjąć „filozofię zerowego zaufania”. treści w mediach społecznościowych i kładzie nacisk na skuteczną komunikację ze znajomymi, aby uniknąć deepfake oszustwa.

„Chociaż sztuczna inteligencja może pomóc w rozwiązywaniu problemów związanych z bezpieczeństwem cyfrowym, nie ma niezawodnej siatki bezpieczeństwa” — mówi Yaron Litwin, ekspert ds. Daszek. Tytułowa aplikacja firmy ma na celu ochronę dzieci przed przestępstwami seksualnymi w Internecie i oferuje również różnorodny zestaw kontroli rodzicielskich. Litwin dodaje, że należy unikać publikowania intymnych lub kompromitujących zdjęć, jednocześnie zmniejszając częstotliwość publikowania nawet normalnych zdjęć.

Jak możesz się zabezpieczyć

Sztuczna inteligencja renderuje złego aktora szpiegującego inną osobę
Źródło: Generator obrazów Bing

Deepfake'i są przerażające i trudno pojąć, jaką traumę mogą wyrządzić osobie i członkom jej rodziny. Istnieje jednak kilka sposobów, dzięki którym użytkownicy mogą uniknąć wpadnięcia w pułapkę lub przynajmniej w dużym stopniu jej uniknąć.

Aby zrozumieć, jakie kroki są średnie smartfon użytkownicy z typowymi umiejętnościami cyfrowymi, skontaktowałem się z Andrew Gardnerem, wiceprezesem ds Cyfrowa generacja, firma programistyczna oferująca zaufane narzędzia bezpieczeństwa, takie jak między innymi Norton, Avast i Avira.

Gardner mówi, że protokoły bezpieczeństwa zaczynają się na poziomie podstawowym. Użytkownicy powinni zacząć od ustawienia swoich profili jako prywatnych — lub przynajmniej zmienić ustawienia widoczności postów, aby tylko osoby, które wspólnie obserwują, mogły widzieć i wchodzić w interakcje z ich postami. Kontrola rodzicielska, które są obecnie dostępne na prawie każdej większej platformie mediów społecznościowych, należy pilnie włączać, aby opiekunowie mogli mieć oko na wszelkie podejrzane interakcje.

Ogólną radą jest przyjmowanie próśb tylko od osób, które znają, ale zrobienie dodatkowego kroku może zajść daleko. „Jeśli tworzysz sieć, sprawdź ostatnie posty i działania zaproszonych osób, aby ocenić, na ile są prawdziwe” — mówi Gardner, dodając, że należy uważać na „konta z kilkoma przyjaciółmi lub wspólnymi przyjaciółmi”. Kolejną kluczową radą, której musi udzielić dyrektor Gen Digital, jest sprawdzanie i ograniczanie mediów społecznościowych loginy.

Sztuczna inteligencja renderuje zamaskowaną osobę szpiegującą inną osobę
Źródło: Generator obrazów Bing

Użytkownicy często odwiedzają serwisy internetowe i aby uniknąć kłopotliwego tworzenia konta, wybierają opcję logowania do mediów społecznościowych. „Daje to aplikacjom dostęp do danych osobowych, aw niektórych sytuacjach te aplikacje sprzedają te informacje stronom trzecim” — mówi. Skandal Cambridge Analytica z udziałem Facebooka jest świetnym przykładem. Należy okresowo sprawdzać, które aplikacje są połączone z ich kontami w mediach społecznościowych i jeśli nie jest to konieczne, cofać im dostęp.

Deepfake to wyrafinowane przestępstwa wykorzystujące sztuczną inteligencję, ale Gardner sugeruje, że użytkownicy powinni nadal przestrzegać pewnych podstawowych zasad bezpieczeństwa — takich jak jako umożliwianie uwierzytelniania dwuskładnikowego, używanie silnych haseł, włączanie kluczy biometrycznych i unikanie podejrzanych lub nieznanych spinki do mankietów.

Media społecznościowe prowadzone bezpiecznie i odpowiedzialnie

Sztuczna inteligencja renderuje ludzi klikających selfie.
Źródło: Generator obrazów Bing

Litwin z Canopy jest zdania, że ​​im więcej udostępniasz, tym łatwiej jest tworzyć przekonujące deepfake. Nie brakuje podejrzanych modeli generowania obrazów AI bez żadnych ograniczeń dotyczących tworzenia wyraźnych materiałów. Narzędzia te opierają się na danych wejściowych obrazu do uczenia modelu. Im więcej danych treningowych jest dostarczanych, tym dokładniejsze i bardziej realistyczne stają się deepfake.

Jest to standardowa taktyka realizowana przez główne generatory obrazów AI, takie jak W połowie podróży. Jeśli Twój kanał społecznościowy jest otwarty i zawiera dużą liczbę zdjęć i filmów, nic nie stoi na przeszkodzie, aby zły aktor zeskrobał je w celu stworzenia kompromitujących głębokich podróbek. Ale jeśli należysz do osób, które postrzegają media społecznościowe jako miejsce przechowywania najcenniejszych wspomnień, jest kilka sposobów, które musieć Brać.

Korzystanie z aplikacji Twitter na Xiaomi 13 Pro.
Andy Boxall/Trendy cyfrowe

„Uważaj na to, jakie dane osobowe udostępniasz online, dostosuj ustawienia prywatności na swoich kontach, włącz uwierzytelnianie dwuskładnikowe i dokładnie przeglądaj obrazy pod kątem wszelkich niedoskonałości”, zauważa Boyda Clewisa, ekspert ds. cyberbezpieczeństwa w Radzie Bezpieczeństwa Forbesa i autor książki „Through The Firewall: The Alchemy Of Turning Crisis Into Opportunity”.

Ale jak niezawodnie wykryć profil w mediach społecznościowych, za którym prawdopodobnie stoi zły aktor zaangażowany w podejrzane działania, takie jak tworzenie i rozpowszechnianie deepfake'ów? „Jeśli materiały wideo lub audio są udostępniane z podejrzanych profili, a konta nie zawierają żadnych danych osobowych lub zdjęć, prawdopodobnie profil jest fałszywy” – sugeruje Tomas Samulis, architekt bezpieczeństwa informacji w Baltic Amadeus. Sugeruje, że takie profile pozbawione danych osobowych są tworzone specjalnie w celu rozpowszechniania podróbek i innych kontrowersyjnych informacji.

Co zrobić, jeśli zostaniesz oszukany

Renderowanie AI zamaskowanej osoby korzystającej z telefonu
Źródło: Generator obrazów Bing

Ale jest tylko tyle środków ostrożności, jakie może podjąć przeciętny użytkownik smartfona. Nawet najbardziej zaznajomieni z technologią cyfrową użytkownicy są ofiarami cyberprzestępstw, nawet po ich zakończeniu przy użyciu wszystkich standardowych narzędzi, takich jak uwierzytelnianie dwuskładnikowe, profile prywatne i dane biometryczne zapory ogniowe.

Jeśli pomimo zachowania wszelkich środków ostrożności nadal znajdziesz się w centrum przestępstwa typu deepfake, zamiast brać sprawy w swoje ręce, zasięgnij porady eksperta i pomocy u władz. Eksperci zauważają, że siedzenie na takim nękaniu lub próba dyskretnego poradzenia sobie z nim na własną rękę często pogarsza sytuację ofiar.

„Jeśli odkryjesz, że ktoś niewłaściwie wykorzystuje Twoje treści, zasięgnij porady zaznajomionej z prawem autorskim, aby pomóc Ci usunąć treści tak szybko, jak to możliwe” — mówi Rob Scott, członek Dallas Bar Association i licencjonowany ekspert prawny w obszarach takich jak ryzyko związane z cyberbezpieczeństwem i dane Prywatność.

Konsultacja z ekspertem prawnym ma kluczowe znaczenie, ponieważ może on przeprowadzić Cię przez Twoje prawa cyfrowe, Litwin firmy Canopy sugeruje również zachowanie wszystkich dowodów, doradzając ofiarom, aby „udokumentowali wszelkie dowody prób wymuszenia, takie jak wiadomości, e-maile lub wszelkie formy komunikacji związane z wymuszenie."

Inną kluczową radą jest to, że ofiara powinna natychmiast zaprzestać wszelkich kontaktów z przestępcą, ponieważ przestępca może dalej manipulować lub nękać ją poważniejszymi żądaniami wymuszenia. Jednocześnie użytkownicy powinni skontaktować się z ekspertem ds. bezpieczeństwa cybernetycznego lub zadzwonić na jedną z rządowych infolinii ds. cyberprzestępczości, aby na czas podjąć odpowiednie działania.

Jak wykryć deepfake'i

AI renderowania ludzkiej twarzy
Źródło: Generator obrazów Bing

Ponieważ silniki sztucznej inteligencji stają się coraz bardziej wyrafinowane, wytwarzane przez nie deepfake stają się niesamowicie realne i trudne do wykrycia. Jednak nadal istnieje kilka znaczników, na które użytkownicy mogą zwrócić uwagę, aby wykryć sztucznie zmodyfikowany lub wygenerowany przez sztuczną inteligencję materiał kompromitujący.

Poniżej znajduje się zestawienie fałszywych identyfikatorów oferowanych przez ekspertów:

  • Uważaj na nienaturalne ruchy gałek ocznych. Jeśli oczy osoby nie mrugają, ruch gałek ocznych jest wyłączony lub wyraz twarzy nie wydaje się być zsynchronizowany z wypowiadanymi słowami, najprawdopodobniej jest to klip typu deepfake. Brak emocji lub niespójne emocje są wyraźnym wskaźnikiem, że media zostały poddane cyfrowej transformacji.
  • „Technologia Deepfake zazwyczaj koncentruje się na rysach twarzy” — mówi Gardner. „Jeśli kształt ciała danej osoby nie wydaje się naturalny lub jej ruchy są gwałtowne i chaotyczne, wideo jest prawdopodobnie deepfake”.
  • Innym niezawodnym znacznikiem jest tło, które może wydawać się nienaturalnie rozmyte lub zawierać dziwne artefakty wizualne. Innym łatwym sposobem na wykrycie deepfake'ów jest poszukiwanie nienormalnych przebarwień lub poważnych niedopasowań kolorów, zwłaszcza w odniesieniu do twarzy i cieni przedmiotów wokół.
  • Jeśli natkniesz się na zdjęcie, na którym osoba kołysze „idealnymi włosami” i nie możesz dostrzec żadnych pojedynczych elementów, takich jak kilka kosmyków włosów lub puszenie się, zachowaj ostrożność. Wiadomo również, że modele AI mają problemy z zębami. Zwróć uwagę na zęby, które są albo nienaturalnie doskonałe, albo takie, które nie mają konturów dla pojedynczych zębów, a może więcej zębów niż zwykła proteza ludzka.
  • Nierówne części ciała, rozmyte krawędzie, kilka dodatkowych lub mniej palców, dziwnie wykrzywione kończyny, niezsynchronizowany ruch części ciała, głos pozbawiony przerw i przerw emocjonalnych to kolejne oznaki, na które należy uważnie uważać Do. „Fałszywe nagrania głosowe lub dźwiękowe często zawierają szumy tła, głosy przypominające roboty i dziwną wymowę” — wyjaśnia Samulis.

Poważny problem z połowicznie skutecznymi rozwiązaniami

AI renderuje osobę podglądającą przez telefon
Źródło: Generator obrazów Bing

Jak wyjaśniono powyżej, nie ma niezawodnej siatki zabezpieczającej przed deepfake'ami. Ale jeśli będziesz uważać na to, gdzie udostępniasz zdjęcia, kto może je zobaczyć i jak daleko sięga Twój dostęp do mediów społecznościowych, możesz pozostać w stosunkowo bezpiecznej strefie.

Należy również zwracać uwagę na to, kim są ich znajomi online, a także sprawdzać działania nowych zaproszeń przed dodaniem ich do kręgu znajomych w mediach społecznościowych. Jeśli chodzi o deepfake, jest to trochę trudne. Ale jeśli zachowasz czujność i poświęcisz trochę czasu na ocenę niespójności na podejrzanym zdjęciu lub filmie, deepfake można wykryć z dość dużą dokładnością.

Ostatecznie chodzi o kultywowanie higienicznych nawyków online i zachowanie czujności w coraz bardziej podatnej na fałszerstwa przestrzeni online.

Zalecenia redaktorów

  • Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
  • Nowa firma AI Elona Muska ma na celu „zrozumienie wszechświata”
  • Naukowcy twierdzą, że przełom w sztucznej inteligencji może nastąpić za pośrednictwem mózgów pszczół
  • OpenAI ujawnia lokalizację swojej pierwszej międzynarodowej placówki
  • 81% uważa, że ​​ChatGPT stanowi zagrożenie dla bezpieczeństwa, wynika z ankiety