Dva manažeři společnosti Google v pátek uvedli, že zaujatost v oblasti umělé inteligence poškozuje již tak marginalizované komunity v Americe a že je třeba udělat více, aby se tak nestalo. X. Eyeé, vedoucího k odpovědným inovacím ve společnosti Google a Angela Williamsová, manažer zásad ve společnosti Google, hovořil v (Ne IRL) Summit hrdosti, událost organizovaná Lesbians Who Tech & Allies, největší světovou technologicky zaměřenou LGBTQ organizací pro ženy, nebinární a trans lidi po celém světě.
v samostatnýrozhovoryse zabývali způsoby, jakými lze technologii strojového učení využít k poškození černošské komunity a dalších komunit v Americe – a v širším měřítku po celém světě.
Doporučená videa
Zkreslení v algoritmech NENÍ JEN PROBLÉM S DATMI. Volba použití umělé inteligence může být zkreslená, způsob, jakým se algoritmus učí, může být zkreslený a způsob, jakým jsou uživatelé ovlivněni/interagují s/vnímají systém, může zkreslení posílit! Překontrolovat @timnitGebrupráce, abyste se dozvěděli více!
- X. Oko??? (@TechWithX) 26. června 2020
Williams diskutoval o použití A.I. pro plošný dohled, jeho role v přílišná policiea jeho implementace pro neobjektivní trestání. "Není to tak, že by tato technologie byla rasistická, ale můžeme do ní zakódovat naši nevědomou zaujatost," řekla. Williams zdůraznil případ Roberta Juliana-Borchaka Williamse, Afroameričan z Detroitu, který byl nedávno neprávem zatčen poté, co systém rozpoznávání obličeje nesprávně porovnal jeho fotografii s bezpečnostními záběry zloděje v obchodě. Předchozí studie ukázaly, že systémy rozpoznávání obličeje mohou mít problémy rozlišovat mezi různými černochy. "To je místo, kde A.I. … sledování může v reálném světě dopadnout strašně špatně,“ řekl Williams.
X. Eyeé také diskutoval o tom, jak A.I. může pomoci „rozsahovat a posilovat nespravedlivé předsudky“. Kromě více kvazi-dystopických, pozornost přitahujících použití A.I., Eyeé se zaměřil na způsob, jakým by se předpojatost mohla vplížit do zdánlivě všednějšího, každodenního používání technologií – včetně vlastních technologií Google nástroje. „Ve společnosti Google nám tyto výzvy nejsou cizí,“ řekl Eyeé. "V posledních letech... jsme byli několikrát v titulcích toho, jak naše algoritmy negativně ovlivnily lidi." Například Google vyvinul nástroj pro klasifikace toxicity komentářů online. I když to může být velmi užitečné, bylo to také problematické: Fráze jako „Jsem černá gay žena“ byly zpočátku klasifikovány jako více toxický než „Jsem bílý muž“. Bylo to způsobeno mezerou v trénovacích datových sadách s více konverzacemi o určitých identitách než ostatní.
Neexistují žádné zastřešující opravy těchto problémů, uvedli dva manažeři společnosti Google. Kdekoli se objeví problémy, Google pracuje na odstranění předsudků. Ale rozsah potenciálních míst, kde může zkreslení vstoupit do systémů - od návrhu algoritmů až po jejich nasazení do společenského kontextu, ve kterém jsou data produkována – znamená, že vždy budou problematické příklady. Klíčem je být si toho vědom, umožnit kontrolu takových nástrojů a umožnit různorodým komunitám vyjádřit svůj názor na používání těchto technologií.
Doporučení redakce
- Může A.I. porazit lidské inženýry při navrhování mikročipů? Google si to myslí
- BigSleep A.I. je jako Google Image Search pro obrázky, které ještě neexistují
- Google přivádí zpět lidi, aby převzali moderování obsahu YouTube od A.I.
- Falešné zprávy? A.I. Algoritmus odhaluje politickou zaujatost v příbězích, které čtete
- A.I. díky upscalingu vypadá tento film z roku 1896, jako by byl natočen v oslnivém rozlišení 4K
Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.