![](/f/afb2ba058a1aa19426e290ec78aa5377.jpg)
Když byl Snapchat poprvé představen jako součást hodiny strojního inženýrství na Stanfordu, zděšený asistent v kurzu se otevřeně zajímal, zda tvůrci aplikace nevytvořili aplikaci pro sexting. O méně než deset let později by Snapchat mohl pomoci vyřešit jeden z největších problémů, kterým v současnosti technologie čelí: zastavení šíření „falešných zpráv“ online.
Obsah
- Signál pro falešné zprávy?
- Hra na kočku a myš pro věky
S tímto cílem na mysli Snap Research — výzkumná divize společnosti Snap, Inc. — nedávno daroval finanční prostředky projektu University of California, Riverside, jehož cílem je najít nový způsob odhalování falešných zpráv online. The Algoritmus UC Riverside byl vyvinut je údajně schopen odhalit falešné zprávy s působivou úrovní přesnosti až 75 procent. S podporou Snapu doufají, že to ještě vylepší.
Doporučená videa
"Jak tomu rozumím, mají velký zájem dobře pochopit, jak lze tomuto problému porozumět - a nakonec ho vyřešit."
„Snap není jednou z prvních společností, které by mě napadly vzhledem k [tomuto problému],“
Vagelis Papalexakis, odborný asistent na katedře informatiky a inženýrství na UC Riverside, řekl Digital Trends. „Nicméně Snap je společnost, která zpracovává obsah. Jak tomu rozumím, velmi je zajímá, aby dobře pochopili, jak lze tomuto problému porozumět – a nakonec ho vyřešit.“To, čím se výzkum UC Riverside liší od desítek, možná i stovek jiných výzkumných projektů, které se snaží prolomit cyklus falešných zpráv, je ambice projektu. Nejedná se o jednoduchý blokátor klíčových slov a ani jeho cílem není plošný zákaz určitých adres URL. A co je možná nejzajímavější, nezajímá se nijak zvlášť o fakta obsažená v příbězích. Tím se odlišuje od webů ověřujících fakta, jako je Snopes, které spoléhají na lidský vstup a hodnocení namísto skutečné automatizace.
"Opravdu nevěřím lidským anotacím," řekl Papalexakis. "Ne proto, že bych lidem nedůvěřoval, ale tohle je ze své podstaty těžký problém, na který se dá dostat definitivní odpověď." Naší motivací k tomu je ptát se, kolik toho můžeme udělat, když se budeme dívat pouze na data, a zda můžeme použít co nejméně lidských anotací – pokud vůbec nějaké.“
Signál pro falešné zprávy?
Nový algoritmus se dívá na co nejvíce „signálů“ z novinového článku a používá to ke zkoušení a klasifikaci důvěryhodnosti článku. Papalexakis řekl: „Kdo sdílel článek? Jaké hashtagy používali? Kdo to napsal? Od které zpravodajské organizace pochází? Jak webová stránka vypadá? Snažíme se zjistit, na kterých faktorech [záleží] a jak velký vliv mají.“
Například hashtag #LockHerUp nemusí sám o sobě nutně potvrzovat, že je článek fake news. Pokud však někdo přidá tuto příponu, když sdílí článek na Twitteru, mohlo by to naznačovat určitý sklon k příběhu. Přidejte dostatek těchto vodítek dohromady a myšlenkou je, že jednotlivé kusy tvoří odhalující celek. Jinak řečeno, pokud chodí jako kachna a kváká jako kachna, je pravděpodobné, že je to kachna. Nebo v tomto případě kolébavý, kvákající, alt-right ruský kachní bot.
![protest proti falešným zprávám](/f/3f79288342a56eb47f87efa638b56eda.jpg)
![snapchat podporující algoritmus boj proti fake news protest getty2](/f/f1c99a2baf6a4f28e8029281f869cca9.jpg)
„Naším zájmem je porozumět tomu, co se stane na začátku, a jak můžeme něco označit v raných fázích, než to začne ‚infikovat‘ síť,“ pokračoval Papalexakis. "To je zatím náš zájem: zjistit, co můžeme vymáčknout z obsahu a kontextu konkrétního článku."
Algoritmus vyvinutý skupinou Papalexakis používá něco, co se nazývá rozklad tenzoru k analýze různých proudů informací o zpravodajském článku. Tenzory jsou vícerozměrné krychle, užitečné pro modelování a analýzu dat, která mají mnoho různých komponent. Dekompozice tenzoru umožňuje odhalit vzory v datech rozdělením tenzoru na elementární části informací, které představují konkrétní vzor nebo téma.
„Dokonce i směšně malý počet anotovaných článků nás může vést ke skutečně, opravdu vysoké úrovni přesnosti“
Algoritmus nejprve používá rozklad tenzorů k reprezentaci dat takovým způsobem, že seskupuje možné falešné zprávy dohromady. Druhá vrstva algoritmu pak spojuje články, které jsou považovány za blízko sebe. Mapování spojení mezi těmito články se opírá o zásadu zvanou „vina sdružením“, naznačuje, že spojení mezi dvěma články znamená, že jsou pravděpodobněji podobné jednomu další.
Poté se na grafy aplikuje strojové učení. Tento „polokontrolovaný“ přístup využívá malý počet článků, které byly kategorizovány uživateli, a poté aplikuje tyto znalosti na mnohem větší soubor dat. I když to na určité úrovni stále zahrnuje lidi, zahrnuje to méně lidské anotace než většina alternativních metod klasifikace potenciálních falešných zpráv. Úroveň přesnosti 75 procent, kterou výzkumníci nabízejí, je založena na správném filtrování dvou veřejných datových sad a další sbírce 63 000 zpravodajských článků.
"Dokonce i směšně malý počet anotovaných článků nás může vést ke skutečně, opravdu vysoké úrovni přesnosti," řekl Papalexakis. "Mnohem vyšší než systém, kde jsme se snažili zachytit jednotlivé rysy, jako je lingvistika, nebo jiné věci, které lidé mohou považovat za dezinformativní."
Hra na kočku a myš pro věky
Z pohledu informatiky je snadné pochopit, proč by tato práce oslovila Vagelis Papalexakis a další výzkumníky z UC Riverside – stejně jako lidi ze Snapchatu. Být schopen nejen třídit falešné zprávy od skutečných zpráv, ale také odlišit zaujaté op-eds od seriózní žurnalistiky nebo satirické články od Cibule je druhem velkých datových hlavolamů, o kterých sní inženýři.
Větší otázkou však je, jak bude tento algoritmus použit – a zda může nakonec pomoci potlačit fenomén falešných zpráv.
Příspěvek společnosti Snap do projektu (který činí „dárek“ 7 000 $ a další nefinanční podporu) nezaručuje, že společnost zavede technologii do komerčního produktu. Papalexakis ale řekl, že doufá, že výzkum nakonec „povede k nějakému přenosu technologií na platformu“.
![](/f/dbac97b35f8e1298ee29feac0a2c7767.jpg)
Konečným cílem, vysvětlil, je vyvinout systém, který je schopen poskytnout každému článku takové skóre důvěryhodnosti. Teoreticky by takové skóre mohlo být použito k odfiltrování falešných zpráv ještě předtím, než by je měl uživatel vůbec šanci zahlédnout.
Tento nápad není nepodobný e-mailovým spamovým filtrům strojového učení, které také používají systém hodnocení založený na faktorech, jako je poměr obrázku k textu v těle zprávy. Papalexakis však navrhl, že preferovaným přístupem by mohlo být jednoduše upozornit uživatele na ně příběhy, které mají vysoké skóre v kategorii možných falešných — „a pak nechte uživatele, aby se rozhodl, co s tím udělá to."
Jedním z dobrých důvodů je skutečnost, že zprávy se ne vždy rozdělují tak úhledně na spam vs. kategorie šunky, stejně jako e-mail. Jistě, některé články mohou být výmysly, ale jiné mohou být spornější: neobsahují žádné přímé lži, ale přesto mají za cíl navést čtenáře jedním určitým směrem. Odstranění těchto článků, i když můžeme najít názory, které se střetávají s našimi vlastními, se dostává na lepkavější území.
"To spadá do šedé oblasti," pokračoval Papalexakis. "Je v pořádku, pokud to můžeme kategorizovat jako silně zaujatý článek. Existují různé kategorie pro to, co bychom mohli nazvat dezinformacemi. [Silně zaujatý článek] nemusí být tak špatný jako přímočarý nepravdivý článek, ale stále čtenáři prodává konkrétní úhel pohledu. Je to jemnější než falešný vs. ne falešný."
Nakonec, navzdory Papalexakisově touze přijít se systémem, který využívá tak málo dohledu jako Je to možné, uznává, že jde o výzvu, která bude muset zahrnovat jak lidi, tak i lidi stroje.
"Vidím to jako hru na kočku a myš z technologického hlediska," řekl. „Nemyslím si, že říkat ‚vyřešit to‘ je správný způsob, jak se na to dívat. Součástí řešení je poskytnout lidem nástroj, který jim může pomoci pochopit konkrétní věci o článku. Toto řešení by byly nástroje, které vám mohou pomoci posoudit věci sami, zůstat vzdělaní jako aktivní občan, rozumět věcem a číst mezi řádky. Nemyslím si, že na tento problém lze použít pouze technologické řešení, protože hodně záleží na lidech a na tom, jak věci vidí.“
Doporučení redakce
- Algoritmus překonává lidi v odhalování falešných zpráv