Közösségi média moderálása: Mit tehet A.I. Fogás -- és hol nem sikerül?

A legjobb közösségi média menedzsment eszközök kisvállalkozások számára
Panithan Fakseemuang/123RF
A gyűlöletbeszéd, a szélsőségesség, az álhírek és más közösségi normákat sértő tartalom bírálata rendelkezik a legnagyobb közösségimédia-hálózatokkal, amelyek megerősítik a politikákat, bővítik a személyzetet és dolgoznak újra algoritmusok. A Social (Net) Work sorozatban a közösségi média moderálását vizsgáljuk, megvizsgáljuk, mi működik és mi nem, miközben megvizsgáljuk a fejlesztési lehetőségeket.

videó egy öngyilkos áldozatról a YouTube-on a „zsidógyűlölőket” célzó hirdetések tovább Facebook, a közösségi média platformjait nem megfelelő tartalmak sújtják, amelyeknek sikerül átcsúszniuk. Sok esetben a platform válasza az, hogy intelligensebb algoritmusokat alkalmaz a nem megfelelő tartalom jobb azonosítása érdekében. De mit is képes valójában megfogni a mesterséges intelligencia, mennyire bízzunk benne, és hol bukik el csúnyán?

„A.I. képes felvenni a sértő nyelvezetet, és nagyon jól felismeri a képeket. Ott van a kép azonosításának ereje” – mondja Winston Binch, a digitális vezérigazgató-helyettes

Deutsch, egy kreatív ügynökség, amely az A.I. digitális kampányok létrehozásában márkák számára a Targettől a Taco Bell-ig. "A szürke terület lesz a cél."

A.I. szöveget és képeket is képes olvasni, de a pontosság változó

A természetes nyelvi feldolgozás segítségével az A.I. több nyelvű szöveg felismerésére tanítható. A közösségi irányelveket sértő bejegyzések észlelésére tervezett program megtanítható például a faji rágalmak vagy a szélsőséges propagandához kapcsolódó kifejezések észlelésére.

mobil trendek google asszisztens ai

A.I. képfelismerésére, a meztelenség bizonyos formáinak megelőzésére vagy a szimbólumok, például a horogkereszt felismerésére is tanítható. Sok esetben jól működik, de nem bolondbiztos. A Google Fotókat például azért kritizálták, mert sötét bőrű emberek képeit a kulcsszóval címkézte meg "gorilla." Évekkel később a Google még mindig nem talált megoldást a problémára, ehelyett az eltávolítás mellett döntött a a program képes majmokat és gorillákat megjelölni teljesen.

Az algoritmusokat is frissíteni kell, amint a szó jelentése fejlődik, vagy hogy megértsük, hogyan használják a szót a kontextusban. Például az LMBT Twitter-felhasználók nemrégiben azt észlelték, hogy hiányoznak a keresési eredmények többek között a #meleg és #biszexuális kifejezésekre, ami miatt egyesek úgy érezték, hogy a szolgáltatás cenzúrázza őket. A Twitter elnézést kért a hibáért, és azt okolta elavult algoritmus ez hamisan azonosította a potenciálisan sértő kifejezésekkel megcímkézett bejegyzéseket. A Twitter szerint az algoritmusnak a bejegyzés kontextusában kellett volna figyelembe vennie a kifejezést, de ezekkel a kulcsszavakkal ez nem sikerült.

A.I. elfogult

A gorillacímkézési sikertelenség egy másik fontos hiányosságot is felhoz - A.I. elfogult. Elgondolkodhat azon, hogyan lehet egy számítógép elfogult, de A.I. úgy van kiképezve, hogy figyeli az embereket, amint végrehajtják a feladatokat, vagy beírja a feladatok eredményeit. Például a fényképeken lévő objektumok azonosítására szolgáló programokat gyakran úgy tanítják meg, hogy több ezer képet táplálnak be a rendszerbe, amelyeket eredetileg kézzel jelöltek meg.

Az emberi elem az, ami lehetővé teszi az A.I. feladatok elvégzésére, de ugyanakkor emberi elfogultságot ad.

Az emberi elem az, ami lehetővé teszi az A.I. a tipikus szoftvereken korábban lehetetlen feladatok elvégzésére, de ugyanez az emberi elem akaratlanul is emberi torzítást ad a számítógépnek. Egy A.I. A program csak annyira jó, mint az edzési adatok – ha a rendszert például nagyrészt fehér hímek képei táplálták, a program nehezen tudja azonosítani a más bőrtónusú embereket.

„Általában az A.I. egyik hiányossága, amikor a megjegyzésektől a felhasználókig bármit moderálni kell A tartalom az, hogy a tervezés eredendően véleményt alkot” – mondta PJ Ahlberg, a műszaki vezető Igazgatója a Stink Studios New York, egy ügynökség, amely az A.I. közösségimédia-botok létrehozásához és márkakampányok moderálásához.

A képzési készlet kifejlesztése után ezeket az adatokat gyakran megosztják a fejlesztők között, ami azt jelenti, hogy a torzítás több programra is átterjed. Ahlberg szerint ez a tényező azt jelenti, hogy a fejlesztők nem tudják módosítani ezeket az adatkészleteket a több A.I-t használó programokban. rendszereket, ami megnehezíti a torzítások eltávolítását azok felfedezése után.

A.I. nem tudja megállapítani a szándékot

A.I. képes észlelni a horogkeresztet a fényképen – de a szoftver nem tudja meghatározni, hogyan használják. A Facebook például nemrégiben bocsánatot kért horogkeresztet tartalmazó bejegyzés eltávolítása de egy szöveges könyörgés kísérte, hogy állítsák meg a gyűlölet terjedését.

Ez egy példa az A.I. kudarcára. a szándék felismerésére. A Facebook még egy képet is megcímkézett a Neptunusz szobra mint szexuálisan kifejezett. Ezenkívül az algoritmusok akaratlanul is megjelölhetik a fotóriporter munkákat a képeken megjelenő gyűlölet-szimbólumok vagy erőszak miatt.

Az oktatási céllal megosztott történelmi képek egy másik példa – 2016-ban a Facebook vitát váltott ki utána eltávolította a történelmi „napalmalány” fényképet többször is, mielőtt a felhasználók nyomása arra kényszerítette a céget, hogy változtassa meg a meztelenséggel kapcsolatos kemény álláspontját, és helyezze vissza a fényképet.

A.I. általában kezdeti átvilágításként szolgál, de gyakran továbbra is emberi moderátorokra van szükség annak megállapítására, hogy a tartalom valóban sérti-e a közösségi normákat. Az A.I. fejlesztései ellenére ez a tény nem változik. A Facebook például idén 20 000-re növeli ellenőrző csapatának létszámát, ami a tavalyi szám duplája.

A.I. segíti az emberek gyorsabb munkáját

Még mindig szükség lehet emberi agyra, de A.I. hatékonyabbá tette a folyamatot. A.I. segíthet meghatározni, hogy mely bejegyzések igényelnek emberi ellenőrzést, valamint segíthet a bejegyzések rangsorolásában. 2017-ben a Facebook megosztotta ezt A.I. az öngyilkossági hajlam észlelésére tervezték 100 segélyhívást eredményezett egy hónap alatt. Akkor, Facebook azt mondta, hogy az A.I. abban is segített meghatározni, hogy mely bejegyzések látnak először emberi felülvizsgálót.

Facebook aggódó barát
Getty Images/Blackzheep

Getty Images/Blackzheep

„[A.I. hosszú utat tett meg, és határozottan halad előre, de a valóság az, hogy még mindig nagyon szüksége van egy emberi elem ellenőrzésére hogy a megfelelő szavakat, a megfelelő tartalmat és a megfelelő üzenetet módosítod” – mondta Chris Mele, a Stink ügyvezető igazgatója. Studió. „Ahol úgy érzi, A.I. Az, ami a legjobban működik, az emberi moderátorok segítése, valamint gyorsabb és nagyobb léptékű munkájuk segítése. Nem hiszem, hogy A.I. közel 100 százalékban automatizált minden platformon.”

A.I. gyors, de az etika lassú

A technológia általában gyorsabban növekszik, mint ahogy a törvények és az etika lépést tud tartani – és ez alól a közösségi média moderálása sem kivétel. Binch azt sugallja, hogy ez a tényező megnövekedett keresletet jelenthet a humán vagy etikai háttérrel rendelkező alkalmazottak iránt, amivel a legtöbb programozó nem rendelkezik.

Ahogy ő fogalmazott: „Ott tartunk, ahol a tempó, a sebesség olyan gyors, hogy meg kell győződnünk arról, hogy az etikai összetevő nem húzódik túlságosan lemaradva.”

Szerkesztői ajánlások

  • Amikor a szerzői jogok megnehezítik a videók hangsávjának megtalálását, ez az A.I. zenész tud segíteni
  • A 8K-tól az A.I.-ig ez jöhet a kamerákba 2019-ben
  • A számítógépek hamarosan túljárnak bennünket. Ez egy A.I. elkerülhetetlen a lázadás?