A videó egy öngyilkos áldozatról a YouTube-on a „zsidógyűlölőket” célzó hirdetések tovább Facebook, a közösségi média platformjait nem megfelelő tartalmak sújtják, amelyeknek sikerül átcsúszniuk. Sok esetben a platform válasza az, hogy intelligensebb algoritmusokat alkalmaz a nem megfelelő tartalom jobb azonosítása érdekében. De mit is képes valójában megfogni a mesterséges intelligencia, mennyire bízzunk benne, és hol bukik el csúnyán?
„A.I. képes felvenni a sértő nyelvezetet, és nagyon jól felismeri a képeket. Ott van a kép azonosításának ereje” – mondja Winston Binch, a digitális vezérigazgató-helyettes
Deutsch, egy kreatív ügynökség, amely az A.I. digitális kampányok létrehozásában márkák számára a Targettől a Taco Bell-ig. "A szürke terület lesz a cél."A.I. szöveget és képeket is képes olvasni, de a pontosság változó
A természetes nyelvi feldolgozás segítségével az A.I. több nyelvű szöveg felismerésére tanítható. A közösségi irányelveket sértő bejegyzések észlelésére tervezett program megtanítható például a faji rágalmak vagy a szélsőséges propagandához kapcsolódó kifejezések észlelésére.
A.I. képfelismerésére, a meztelenség bizonyos formáinak megelőzésére vagy a szimbólumok, például a horogkereszt felismerésére is tanítható. Sok esetben jól működik, de nem bolondbiztos. A Google Fotókat például azért kritizálták, mert sötét bőrű emberek képeit a kulcsszóval címkézte meg "gorilla." Évekkel később a Google még mindig nem talált megoldást a problémára, ehelyett az eltávolítás mellett döntött a a program képes majmokat és gorillákat megjelölni teljesen.
Az algoritmusokat is frissíteni kell, amint a szó jelentése fejlődik, vagy hogy megértsük, hogyan használják a szót a kontextusban. Például az LMBT Twitter-felhasználók nemrégiben azt észlelték, hogy hiányoznak a keresési eredmények többek között a #meleg és #biszexuális kifejezésekre, ami miatt egyesek úgy érezték, hogy a szolgáltatás cenzúrázza őket. A Twitter elnézést kért a hibáért, és azt okolta elavult algoritmus ez hamisan azonosította a potenciálisan sértő kifejezésekkel megcímkézett bejegyzéseket. A Twitter szerint az algoritmusnak a bejegyzés kontextusában kellett volna figyelembe vennie a kifejezést, de ezekkel a kulcsszavakkal ez nem sikerült.
A.I. elfogult
A gorillacímkézési sikertelenség egy másik fontos hiányosságot is felhoz - A.I. elfogult. Elgondolkodhat azon, hogyan lehet egy számítógép elfogult, de A.I. úgy van kiképezve, hogy figyeli az embereket, amint végrehajtják a feladatokat, vagy beírja a feladatok eredményeit. Például a fényképeken lévő objektumok azonosítására szolgáló programokat gyakran úgy tanítják meg, hogy több ezer képet táplálnak be a rendszerbe, amelyeket eredetileg kézzel jelöltek meg.
Az emberi elem az, ami lehetővé teszi az A.I. feladatok elvégzésére, de ugyanakkor emberi elfogultságot ad.
Az emberi elem az, ami lehetővé teszi az A.I. a tipikus szoftvereken korábban lehetetlen feladatok elvégzésére, de ugyanez az emberi elem akaratlanul is emberi torzítást ad a számítógépnek. Egy A.I. A program csak annyira jó, mint az edzési adatok – ha a rendszert például nagyrészt fehér hímek képei táplálták, a program nehezen tudja azonosítani a más bőrtónusú embereket.
„Általában az A.I. egyik hiányossága, amikor a megjegyzésektől a felhasználókig bármit moderálni kell A tartalom az, hogy a tervezés eredendően véleményt alkot” – mondta PJ Ahlberg, a műszaki vezető Igazgatója a Stink Studios New York, egy ügynökség, amely az A.I. közösségimédia-botok létrehozásához és márkakampányok moderálásához.
A képzési készlet kifejlesztése után ezeket az adatokat gyakran megosztják a fejlesztők között, ami azt jelenti, hogy a torzítás több programra is átterjed. Ahlberg szerint ez a tényező azt jelenti, hogy a fejlesztők nem tudják módosítani ezeket az adatkészleteket a több A.I-t használó programokban. rendszereket, ami megnehezíti a torzítások eltávolítását azok felfedezése után.
A.I. nem tudja megállapítani a szándékot
A.I. képes észlelni a horogkeresztet a fényképen – de a szoftver nem tudja meghatározni, hogyan használják. A Facebook például nemrégiben bocsánatot kért horogkeresztet tartalmazó bejegyzés eltávolítása de egy szöveges könyörgés kísérte, hogy állítsák meg a gyűlölet terjedését.
Ez egy példa az A.I. kudarcára. a szándék felismerésére. A Facebook még egy képet is megcímkézett a Neptunusz szobra mint szexuálisan kifejezett. Ezenkívül az algoritmusok akaratlanul is megjelölhetik a fotóriporter munkákat a képeken megjelenő gyűlölet-szimbólumok vagy erőszak miatt.
Az oktatási céllal megosztott történelmi képek egy másik példa – 2016-ban a Facebook vitát váltott ki utána eltávolította a történelmi „napalmalány” fényképet többször is, mielőtt a felhasználók nyomása arra kényszerítette a céget, hogy változtassa meg a meztelenséggel kapcsolatos kemény álláspontját, és helyezze vissza a fényképet.
A.I. általában kezdeti átvilágításként szolgál, de gyakran továbbra is emberi moderátorokra van szükség annak megállapítására, hogy a tartalom valóban sérti-e a közösségi normákat. Az A.I. fejlesztései ellenére ez a tény nem változik. A Facebook például idén 20 000-re növeli ellenőrző csapatának létszámát, ami a tavalyi szám duplája.
A.I. segíti az emberek gyorsabb munkáját
Még mindig szükség lehet emberi agyra, de A.I. hatékonyabbá tette a folyamatot. A.I. segíthet meghatározni, hogy mely bejegyzések igényelnek emberi ellenőrzést, valamint segíthet a bejegyzések rangsorolásában. 2017-ben a Facebook megosztotta ezt A.I. az öngyilkossági hajlam észlelésére tervezték 100 segélyhívást eredményezett egy hónap alatt. Akkor,
Getty Images/Blackzheep
„[A.I. hosszú utat tett meg, és határozottan halad előre, de a valóság az, hogy még mindig nagyon szüksége van egy emberi elem ellenőrzésére hogy a megfelelő szavakat, a megfelelő tartalmat és a megfelelő üzenetet módosítod” – mondta Chris Mele, a Stink ügyvezető igazgatója. Studió. „Ahol úgy érzi, A.I. Az, ami a legjobban működik, az emberi moderátorok segítése, valamint gyorsabb és nagyobb léptékű munkájuk segítése. Nem hiszem, hogy A.I. közel 100 százalékban automatizált minden platformon.”
A.I. gyors, de az etika lassú
A technológia általában gyorsabban növekszik, mint ahogy a törvények és az etika lépést tud tartani – és ez alól a közösségi média moderálása sem kivétel. Binch azt sugallja, hogy ez a tényező megnövekedett keresletet jelenthet a humán vagy etikai háttérrel rendelkező alkalmazottak iránt, amivel a legtöbb programozó nem rendelkezik.
Ahogy ő fogalmazott: „Ott tartunk, ahol a tempó, a sebesség olyan gyors, hogy meg kell győződnünk arról, hogy az etikai összetevő nem húzódik túlságosan lemaradva.”
Szerkesztői ajánlások
- Amikor a szerzői jogok megnehezítik a videók hangsávjának megtalálását, ez az A.I. zenész tud segíteni
- A 8K-tól az A.I.-ig ez jöhet a kamerákba 2019-ben
- A számítógépek hamarosan túljárnak bennünket. Ez egy A.I. elkerülhetetlen a lázadás?