Facebook używa botów do przewidywania złych zachowań i zapobiegania im

Pomimo wielu wysiłków Facebooka złym aktorom zawsze udaje się przedrzeć przez jego zabezpieczenia i zasady. Sieć społecznościowa eksperymentuje obecnie z nowym sposobem wzmocnienia swoich murów antyspamowych i zapobiegania złym zachowaniom, które mogą potencjalnie naruszyć jej zabezpieczenia: armią botów.

Facebook twierdzi, że opracowuje nowy system botów, który może symulować złe zachowania i poddawać platformę testom warunków skrajnych, aby odkryć wszelkie wady i luki. Te zautomatyzowane boty są szkolone i uczone, jak zachowywać się jak prawdziwa osoba, korzystając ze skarbnicy modeli zachowań Facebook pozyskał od ponad dwóch miliardów użytkowników.

Polecane filmy

Aby mieć pewność, że ten eksperyment nie będzie przeszkadzał prawdziwym użytkownikom, Facebook stworzył także rodzaj równoległej wersji swojej sieci społecznościowej. Tutaj boty są wypuszczone na wolność i mogą szaleć — mogą wysyłać sobie nawzajem wiadomości, komentować fałszywe posty, wysyłać zaproszenia do znajomych, odwiedzać strony i nie tylko. Co ważniejsze, te A.I. boty są zaprogramowane tak, aby symulować ekstremalne scenariusze, takie jak sprzedaż narkotyków i broni, aby sprawdzić, w jaki sposób algorytmy Facebooka będą próbowały temu zapobiec.

Powiązany

  • Naukowcy twierdzą, że ankiety dotyczące koronawirusa Facebooka i Google mogą wkrótce przewidywać epidemie
  • Błąd Facebooka spowodował, że ważne artykuły o koronawirusie zostały oznaczone jako spam
  • Facebook przypomina użytkownikom o szczepieniach na grypę, ogranicza zasięg postów antyszczepionkowych

Facebook twierdzi, że ten nowy system może obsługiwać „tysiące, a nawet miliony botów”. Ponieważ faktycznie działa na tym samym kodzie, użytkownicy doświadczenia dodaje, że „działania botów są wierne efektom, jakie odczuliby prawdziwi ludzie korzystający z platforma."

„Chociaż projekt znajduje się obecnie na etapie wyłącznie badawczym, mamy nadzieję, że pewnego dnia pomoże nam ulepszyć nasze usługi i wykryć potencjalne problemy z niezawodnością lub integralnością, zanim dotkną one prawdziwych osób korzystających z platformy”. – napisał kierownik projektu, Mark Harman A post na blogu.

W tej chwili nie jest jasne, jak skuteczne będzie nowe środowisko symulacyjne Facebooka. Jak wspomniał Harman, proces ten jest wciąż na dość wczesnym etapie i firma nie wykorzystała jeszcze żadnych wyników swoich prac do udostępnienia opinii publicznej aktualizacji. W ciągu ostatnich kilku lat sieć społecznościowa aktywnie inwestowała i wspierała badania oparte na sztucznej inteligencji w celu opracowania nowych narzędzi do walki z nękaniem i spamem. Dwa lata temu na dorocznej konferencji deweloperów Mark Zuckerberg ogłosił, że firma buduje narzędzia sztucznej inteligencji do zwalczania postów zawierających treści terrorystyczne, mowę nienawiści, spam i więcej.

Zalecenia redaktorów

  • Nowe badania Meta dotyczące sztucznej inteligencji mogą zwiększyć liczbę tłumaczeń na Facebooku i Instagramie
  • Facebook udostępnia dane o lokalizacji badaczom zajmującym się koronawirusem
  • Prywatne dane niektórych użytkowników Facebooka i Twittera wyciekły poprzez złośliwe aplikacje
  • Facebook wykorzystuje Minecraft jako poligon do kolejnego etapu rozwoju sztucznej inteligencji
  • Facebook buduje wirtualne domy do szkolenia sztucznej inteligencji agentów w realistycznych środowiskach

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.