Dvaja vedúci predstavitelia spoločnosti Google v piatok uviedli, že zaujatosť v oblasti umelej inteligencie poškodzuje už tak marginalizované komunity v Amerike a že je potrebné urobiť viac, aby sa tak nestalo. X. Eyeé, vedúci dosahu zodpovedných inovácií v spoločnosti Google a Angela Williamsová, manažér politiky v spoločnosti Google, hovoril o (nie IRL) Pride Summit, podujatie organizované Lesbians Who Tech & Allies, najväčšou svetovou organizáciou LGBTQ zameranou na technológie pre ženy, nebinárnych a trans ľudí na celom svete.
In oddelenérozhovory, sa zaoberali spôsobmi, ktorými možno technológiu strojového učenia použiť na poškodenie černošskej komunity a iných komunít v Amerike – a vo väčšej miere na celom svete.
Odporúčané videá
Skreslenie v algoritmoch NIE JE LEN PROBLÉM S ÚDAJMI. Voľba použiť AI môže byť skreslená, spôsob, akým sa algoritmus učí, môže byť skreslený a spôsob, akým sú používatelia ovplyvnení/interagujú s/vnímajú systém, môže posilniť zaujatosť! odhlásiť sa @timnitGebrupracujte na tom, aby ste sa dozvedeli viac!
- X. Oko??? (@TechWithX) 26. júna 2020
Williams diskutoval o použití A.I. pre plošný dohľad, jeho úloha v nadmerná polícia, a jeho implementácia pre neobjektívne odsúdenie. "Nie je to tak, že technológia je rasistická, ale môžeme do nej zakódovať našu vlastnú nevedomú zaujatosť," povedala. Williams zdôraznil prípad Roberta Juliana-Borchaka Williamsa, Afroameričan z Detroitu, ktorý bol nedávno neprávom zatknutý po tom, čo systém na rozpoznávanie tváre nesprávne porovnal jeho fotografiu s bezpečnostnými zábermi zlodeja v obchode. Predchádzajúce štúdie ukázali, že systémy rozpoznávania tváre môžu mať problémy rozlišovať medzi rôznymi černochmi. "Toto je miesto, kde A.I.... dohľad sa môže v skutočnom svete veľmi pokaziť,“ povedal Williams.
X. Eyeé tiež diskutoval o tom, ako A.I. môže pomôcť „rozšíriť a posilniť nespravodlivé predsudky“. Okrem viac kvázi-dystopických, pozornosť priťahujúcich použití A.I., Eyeé sa zameral na spôsob, akým by sa zaujatosť mohla vkradnúť do zdanlivo všednejšieho, každodenného používania technológií – vrátane vlastných nástrojov. „V spoločnosti Google nám tieto výzvy nie sú cudzie,“ povedal Eyeé. "V posledných rokoch... sme sa niekoľkokrát dostali do titulkov o tom, ako naše algoritmy negatívne ovplyvnili ľudí." Napríklad Google vyvinul nástroj pre klasifikácia toxicity komentárov online. Aj keď to môže byť veľmi užitočné, bolo to tiež problematické: frázy ako „Som čierna gay žena“ boli pôvodne klasifikované ako viac toxický ako „som biely muž“. Bolo to kvôli medzere v súboroch tréningových údajov, s viac konverzáciami o určitých identitách ako iní.
Neexistujú žiadne zastrešujúce opravy týchto problémov, uviedli dvaja vedúci pracovníci spoločnosti Google. Kdekoľvek sa vyskytnú problémy, Google pracuje na odstránení zaujatosti. Ale rozsah potenciálnych miest, kde môže zaujatosť vstúpiť do systémov - od návrhu algoritmov až po ich nasadenie do spoločenského kontextu, v ktorom sa údaje vytvárajú – znamená, že vždy budú problémy príklady. Kľúčom je uvedomiť si to, umožniť kontrolu takýchto nástrojov a umožniť rôznym komunitám vyjadriť svoj názor na používanie týchto technológií.
Odporúčania redaktorov
- Môže A.I. poraziť ľudských inžinierov pri navrhovaní mikročipov? Google si to myslí
- BigSleep A.I. je ako vyhľadávanie obrázkov Google pre obrázky, ktoré ešte neexistujú
- Google privádza späť ľudí, aby prevzali moderovanie obsahu YouTube od A.I.
- falošné správy? A.I. Algoritmus odhaľuje politickú zaujatosť v príbehoch, ktoré čítate
- A.I. vďaka upscalingu vyzerá tento film z roku 1896, akoby bol natočený v oslnivom rozlíšení 4K
Zlepšite svoj životný štýlDigitálne trendy pomáhajú čitateľom mať prehľad o rýchlo sa rozvíjajúcom svete technológií so všetkými najnovšími správami, zábavnými recenziami produktov, užitočnými úvodníkmi a jedinečnými ukážkami.