Moderacja mediów społecznościowych: co może A.I. Złapanie – i gdzie zawodzi?

Najlepsze narzędzia do zarządzania mediami społecznościowymi dla małych firm
Panithan Faksemuang/123RF
Krytyka mowy nienawiści, ekstremizmu, fałszywych wiadomości i innych treści naruszających standardy społeczności ma największe sieci mediów społecznościowych, wzmacnia politykę, dodaje personel i przebudowuje algorytmy. W serii Praca społeczna (sieciowa) badamy moderację mediów społecznościowych, sprawdzając, co działa, a co nie, jednocześnie badając możliwości ulepszeń.

Od wideo ofiary samobójstwa na YouTube do reklamy kierowane na „nienawidzących Żydów”, NA Facebookplatformy mediów społecznościowych są nękane nieodpowiednimi treściami, którym udaje się przedostać przez szczeliny. W wielu przypadkach odpowiedzią platformy jest wdrożenie mądrzejszych algorytmów, które lepiej identyfikują nieodpowiednie treści. Ale co tak naprawdę jest w stanie wychwycić sztuczna inteligencja, jak bardzo jej ufać i gdzie sromotnie zawodzi?

„AI potrafi wychwycić obraźliwy język i bardzo dobrze rozpoznaje obrazy. Istnieje moc identyfikacji obrazu” – mówi Winston Binch, dyrektor ds. rozwiązań cyfrowych

Niemiecki, agencja kreatywna wykorzystująca sztuczną inteligencję. w tworzeniu kampanii digital dla marek od Target po Taco Bell. „Szara strefa staje się intencją.”

sztuczna inteligencja odczytuje zarówno tekst, jak i obrazy, ale dokładność jest różna

Wykorzystując przetwarzanie języka naturalnego, A.I. można nauczyć się rozpoznawać tekst w wielu językach. Program zaprojektowany do wykrywania postów naruszających wytyczne społeczności może na przykład zostać nauczony wykrywania obelg rasistowskich lub terminów związanych z propagandą ekstremistyczną.

trendy mobilne Asystent Google AI

sztuczna inteligencja można również nauczyć rozpoznawać obrazy, zapobiegać niektórym formom nagości lub rozpoznawać symbole, takie jak swastyka. W wielu przypadkach działa dobrze, ale nie jest niezawodne. Na przykład Zdjęcia Google zostały skrytykowane za oznaczanie zdjęć osób o ciemnej karnacji słowem kluczowym "goryl." Wiele lat później Google nadal nie znalazł rozwiązania problemu, zamiast tego zdecydował się go usunąć the zdolność programu do oznaczania małp i goryli całkowicie.

Algorytmy również muszą być aktualizowane w miarę ewolucji znaczenia słowa lub zrozumienia, w jaki sposób słowo jest używane w kontekście. Na przykład użytkownicy LGBT na Twitterze zauważyli ostatnio brak wyników wyszukiwania między innymi haseł #gej i #biseksualny, co spowodowało, że niektórzy mieli poczucie, że serwis ich cenzuruje. Twitter przeprosił za błąd, zrzucając na niego winę przestarzały algorytm polegało to na błędnym identyfikowaniu postów oznaczonych terminami jako potencjalnie obraźliwych. Twitter stwierdził, że jego algorytm miał uwzględnić to hasło w kontekście postu, ale nie zrobił tego w przypadku tych słów kluczowych.

sztuczna inteligencja jest stronniczy

Niepowodzenie tagowania goryli powoduje kolejne ważne niedociągnięcie — sztuczna inteligencja jest stronniczy. Możesz się zastanawiać, jak komputer może być stronniczy, ale sztuczna inteligencja. jest szkolony poprzez obserwowanie, jak ludzie wykonują zadania lub wprowadzanie wyników tych zadań. Na przykład programy identyfikujące obiekty na fotografii są często szkolone poprzez dostarczenie do systemu tysięcy obrazów, które początkowo zostały ręcznie oznaczone.

Element ludzki umożliwia sztuczną inteligencję. do wykonywania zadań, ale jednocześnie nadaje mu ludzką stronniczość.

Element ludzki umożliwia sztuczną inteligencję. do wykonywania zadań wcześniej niemożliwych do wykonania w typowym oprogramowaniu, ale ten sam element ludzki również nieumyślnie nadaje komputerowi ludzki charakter. sztuczna inteligencja program jest tak dobry, jak dane szkoleniowe — jeśli na przykład system był w dużej mierze zasilany obrazami białych mężczyzn, program będzie miał trudności z identyfikacją osób o innym odcieniu skóry.

„Ogólnie rzecz biorąc, jest jedna wada sztucznej inteligencji, jeśli chodzi o moderowanie czegokolwiek, od komentarzy po użytkownika treścią jest to, że jest ona z natury uzależniona od projektu” – powiedział PJ Ahlberg, dyrektor techniczny reżyser Stink Studios w Nowym Jorku, agencja korzystająca z AI. do tworzenia botów społecznościowych i moderowania kampanii marek.

Po opracowaniu zestawu szkoleniowego dane te są często udostępniane programistom, co oznacza, że ​​błąd rozprzestrzenia się na wiele programów. Ahlberg twierdzi, że ten czynnik oznacza, że ​​programiści nie są w stanie modyfikować tych zbiorów danych w programach korzystających z wielu AI. systemów, co utrudnia usunięcie wszelkich uprzedzeń po ich wykryciu.

sztuczna inteligencja nie można określić zamiaru

sztuczna inteligencja może wykryć swastykę na zdjęciu, ale oprogramowanie nie jest w stanie określić, w jaki sposób jest ona używana. Na przykład Facebook niedawno przeprosił usunięcie postu zawierającego swastykę ale towarzyszył mu SMS-owy apel o zaprzestanie szerzenia nienawiści.

To przykład porażki A.I. rozpoznać zamiar. Facebook nawet otagował zdjęcie posąg Neptuna jako jednoznacznie seksualne. Ponadto algorytmy mogą w sposób niezamierzony oznaczać prace fotoreportażu ze względu na symbole nienawiści lub przemoc, które mogą pojawić się na zdjęciach.

Kolejnym przykładem są historyczne zdjęcia udostępniane w celach edukacyjnych – w 2016 roku Facebook wywołał po nich kontrowersje usunięto historyczną fotografię „dziewczyny z napalmem”. wiele razy, zanim naciski ze strony użytkowników zmusiły firmę do zmiany twardego stanowiska w sprawie nagości i przywrócenia zdjęcia.

sztuczna inteligencja zwykle służy jako wstępna weryfikacja, ale często potrzebni są moderatorzy, aby ustalić, czy treść rzeczywiście narusza standardy społeczności. Pomimo ulepszeń sztucznej inteligencji nie jest to fakt, który się zmienia. Na przykład Facebook zwiększa w tym roku liczebność swojego zespołu recenzentów do 20 000 osób, co stanowi dwukrotnie więcej niż w zeszłym roku.

sztuczna inteligencja pomaga ludziom pracować szybciej

Ludzki mózg może być nadal potrzebny, ale sztuczna inteligencja. sprawiło, że proces stał się bardziej efektywny. sztuczna inteligencja może pomóc określić, które posty wymagają ręcznej weryfikacji, a także pomóc w ustaleniu priorytetów tych postów. W 2017 roku Facebook udostępnił tę informację sztuczna inteligencja zaprojektowany, aby wykryć tendencje samobójcze zaowocowało 100 wezwaniami do służb ratunkowych w ciągu jednego miesiąca. Wtedy, Facebook stwierdził, że A. I. pomagało także określić, które posty są najpierw przeglądane przez człowieka.

Zaniepokojony przyjaciel z Facebooka
Getty Images/Blackzheep

Getty Images/Blackzheep

„[A.I. przebył długą drogę i zdecydowanie czyni postępy, ale rzeczywistość jest taka, że ​​nadal bardzo potrzebny jest element ludzki do weryfikacji że modyfikujesz właściwe słowa, właściwą treść i właściwy przekaz” – powiedział Chris Mele, dyrektor zarządzający w Stink Studia. „Gdzie czuje się, że A.I. działa najlepiej, ułatwia pracę moderatorów i pomaga im pracować szybciej i na większą skalę. Nie sądzę, że A.I. jest niemal w 100% zautomatyzowany na dowolnej platformie”.

sztuczna inteligencja jest szybki, ale etyka jest powolna

Ogólnie rzecz biorąc, technologia rozwija się w tempie szybszym, niż mogą nadążać przepisy i etyka, a moderowanie mediów społecznościowych nie jest wyjątkiem. Binch sugeruje, że czynnik ten może oznaczać zwiększone zapotrzebowanie na pracowników z wykształceniem humanistycznym lub etyką, czego większość programistów nie posiada.

Jak to ujął: „Jesteśmy obecnie w miejscu, w którym tempo i prędkość są tak duże, że musimy zadbać o to, aby element etyczny nie pozostał zbyt daleko w tyle”.

Zalecenia redaktorów

  • Kiedy prawa autorskie utrudniają znalezienie ścieżek dźwiękowych do filmów, ta sztuczna inteligencja. muzyk może pomóc
  • Od 8K po sztuczną inteligencję – oto, co może pojawić się w aparatach w 2019 roku
  • Komputery wkrótce nas przechytrzą. Czy to sprawia, że ​​A.I. bunt nieunikniony?