
Od a video sebevraždy na YouTube reklamy cílené na „nenávidící Židy“, na Facebook, jsou platformy sociálních médií sužovány nevhodným obsahem, který dokáže proklouznout. V mnoha případech je odpovědí platformy implementace chytřejších algoritmů pro lepší identifikaci nevhodného obsahu. Čeho se ale umělá inteligence skutečně dokáže chytit, jak moc bychom jí měli věřit a kde žalostně selhává?
"A.I. dokáže zachytit urážlivé výrazy a dokáže velmi dobře rozpoznat obrázky. Síla identifikace obrázku tam je,“ říká Winston Binch, hlavní digitální ředitel společnosti německy, kreativní agentura, která využívá A.I. při vytváření digitálních kampaní pro značky od Target po Taco Bell. "Šedá oblast se stává záměrem."
A.I. umí číst text i obrázky, ale přesnost se liší
Pomocí zpracování přirozeného jazyka A.I. lze natrénovat tak, aby rozpoznával text ve více jazycích. Program určený k odhalování příspěvků, které porušují pravidla komunity, lze například naučit odhalovat rasové nadávky nebo výrazy spojené s extremistickou propagandou.

A.I. lze také naučit rozpoznávat obrázky, předcházet některým formám nahoty nebo rozpoznávat symboly, jako je svastika. V mnoha případech to funguje dobře, ale není to spolehlivé. Například Fotky Google byly kritizovány za označování snímků lidí tmavé pleti klíčovým slovem "gorila." O několik let později Google stále nenašel řešení problému, místo toho se rozhodl odstranit a schopnost programu označovat opice a gorily zcela.
Algoritmy je také třeba aktualizovat s tím, jak se význam slova vyvíjí, nebo aby pochopili, jak se slovo používá v kontextu. Například uživatelé LGBT Twitteru nedávno zaznamenali nedostatek výsledků vyhledávání pro výrazy #gay a #bisexuál, mimo jiné, což u některých vedlo k pocitu, že je služba cenzuruje. Twitter se za chybu omluvil a obvinil ji zastaralý algoritmus která falešně označila příspěvky označené těmito výrazy jako potenciálně urážlivé. Twitter uvedl, že jeho algoritmus měl vzít v úvahu termín v kontextu příspěvku, ale neučinil tak s těmito klíčovými slovy.
A.I. je zaujatý
Selhání značkování goril přináší další důležitý nedostatek — A.I. je zaujatý. Možná se divíte, jak může být počítač zaujatý, ale A.I. je trénován sledováním lidí při plnění úkolů nebo zadáváním výsledků těchto úkolů. Například programy pro identifikaci objektů na fotografii jsou často trénovány tak, že do systému vloží tisíce obrázků, které byly původně označeny ručně.
Lidský prvek je to, co umožňuje A.I. dělat úkoly, ale zároveň mu dodává lidskou zaujatost.
Lidský prvek je to, co umožňuje A.I. dokončit úkoly, které byly dříve nemožné na typickém softwaru, ale tentýž lidský prvek také neúmyslně dává lidské zaujatosti k počítači. A.I. program je jen tak dobrý jako tréninková data – pokud by systém například z velké části využíval obrázky bílých mužů, bude mít program potíže s identifikací lidí s jinými odstíny pleti.
„Jeden nedostatek AI obecně, pokud jde o moderování čehokoli od komentářů po uživatele obsah je takový, že je neodmyslitelně založen na designu,“ řekl PJ Ahlberg, výkonný technický ředitel ředitel Stink Studios v New Yorku, agentura, která využívá A.I. pro vytváření robotů na sociálních sítích a moderování značkových kampaní.
Jakmile je trénovací sada vyvinuta, tato data jsou často sdílena mezi vývojáři, což znamená, že se zkreslení rozšíří na více programů. Ahlberg říká, že tento faktor znamená, že vývojáři nejsou schopni upravit tyto datové sady v programech využívajících více A.I. systémů, což ztěžuje odstranění jakýchkoli zkreslení po jejich objevení.
A.I. nelze určit úmysl
A.I. dokáže na fotografii detekovat svastiku – ale software nedokáže určit, jak se používá. Nedávno se po něm omluvil například Facebook odstranění příspěvku, který obsahoval hákový kříž ale byla doprovázena textovou prosbou o zastavení šíření nenávisti.
Toto je příklad selhání A.I. rozpoznat záměr. Facebook dokonce označil obrázek sochu Neptuna jako sexuálně explicitní. Algoritmy mohou navíc neúmyslně označit fotožurnalistickou práci kvůli symbolům nenávisti nebo násilí, které se mohou objevit na obrázcích.
Historické obrázky sdílené pro vzdělávací účely jsou dalším příkladem – v roce 2016 po nich Facebook vyvolal kontroverzi odstranil historickou fotografii „napalm girl“. několikrát, než tlak uživatelů donutil společnost změnit svůj tvrdý postoj k nahotě a obnovit fotografii.
A.I. má tendenci sloužit jako počáteční promítání, ale často je stále zapotřebí lidských moderátorů, aby zjistili, zda obsah skutečně porušuje standardy komunity. Navzdory vylepšením AI to není skutečnost, která se mění. Facebook například letos zvyšuje počet svých kontrolních týmů na 20 000, což je dvojnásobek loňského počtu.
A.I. pomáhá lidem pracovat rychleji
Lidský mozek může být stále vyžadován, ale A.I. proces zefektivnil. A.I. může pomoci určit, které příspěvky vyžadují kontrolu člověkem, a také pomoci určit prioritu těchto příspěvků. V roce 2017 to sdílel Facebook A.I. navržený k rozpoznání sebevražedných sklonů vedly ke 100 telefonátům zasahujícím v tísni během jednoho měsíce. V době, kdy,

Getty Images/Blackzheep
“[A.I. má] za sebou dlouhou cestu a rozhodně dělá pokroky, ale realita je taková, že stále velmi potřebujete ověření lidského prvku že upravujete správná slova, správný obsah a správné sdělení,“ řekl Chris Mele, výkonný ředitel společnosti Stink. Studia. "Tam, kde se cítí A.I. funguje nejlépe, je usnadňovat lidské moderátory a pomáhat jim pracovat rychleji a ve větším měřítku. Nemyslím si, že A.I. je téměř 100% automatizován na jakékoli platformě.“
A.I. je rychlý, ale etika je pomalá
Technologie obecně mají tendenci růst rychleji, než mohou zákony a etika držet krok – a moderování sociálních sítí není výjimkou. Binch naznačuje, že tento faktor by mohl znamenat zvýšenou poptávku po zaměstnancích se zázemím v humanitních nebo etických oborech, což většina programátorů nemá.
Jak řekl: „Nyní jsme na místě, kde je tempo, rychlost tak rychlé, že se musíme ujistit, že etická složka nezůstane příliš pozadu.“
Doporučení redakce
- Když autorská práva znesnadňují hledání zvukových stop k videu, tento A.I. hudebník může pomoci
- Od 8K po A.I., to je to, co by mohlo přijít do kamer v roce 2019
- Počítače nás brzy přechytračí. Dělá to A.I. povstání nevyhnutelné?