Divi Google vadītāji piektdien sacīja, ka mākslīgā intelekta aizspriedumi kaitē jau tā marginalizētajām kopienām Amerikā un ka ir jādara vairāk, lai tas nenotiktu. X. Eyeé, kontaktpersona par atbildīgu inovāciju uzņēmumā Google, un Andžela Viljamsa, Google politikas vadītājs, runāja plkst (Nav IRL) Praida samits, pasākums, ko organizē Lesbians Who Tech & Allies, pasaulē lielākā uz tehnoloģijām orientēta LGBTQ organizācija sievietēm, ne-bināriem un transpersonām visā pasaulē.
In atsevišķisarunas, viņi aplūkoja veidus, kā mašīnmācīšanās tehnoloģiju var izmantot, lai kaitētu melnādaino kopienai un citām kopienām Amerikā un plašāk visā pasaulē.
Ieteiktie videoklipi
Algoritmu novirze NAV TIKAI DATU PROBLĒMA. Izvēle izmantot AI var būt neobjektīva, veids, kā algoritms mācās, var būt neobjektīvs, un veids, kā lietotāji tiek ietekmēti/sadarbojas ar/uztver sistēmu, var pastiprināt neobjektivitāti! izrakstīšanās @timnitGebrudarbs, lai uzzinātu vairāk!
— X. Acs??? (@TechWithX) 2020. gada 26. jūnijs
Viljamss apsprieda A.I. visaptverošai uzraudzībai, tās loma
pārmērīga policijas darbība, un tā īstenošana neobjektīvai sodīšanai. "[Tas nav], ka tehnoloģija ir rasistiska, bet mēs varam iekodēt savu neapzināto aizspriedumu tehnoloģijā," viņa teica. Viljamss uzsvēra Roberta Džuliana-Borčaka Viljamsa lieta, afroamerikānis no Detroitas, kurš nesen tika nepareizi arestēts pēc tam, kad sejas atpazīšanas sistēma nepareizi saskaņoja viņa fotoattēlu ar veikala zagļa drošības kameru. Iepriekšējie pētījumi ir parādījuši, ka sejas atpazīšanas sistēmas var cīnīties atšķirt dažādus melnādainos cilvēkus. "Šeit ir vieta, kur A.I.... novērošana var noiet šausmīgi nepareizi reālajā pasaulē,” sacīja Viljamss.X. Eyeé arī apsprieda, kā A.I. var palīdzēt "mērogot un pastiprināt negodīgu aizspriedumu". Papildus vairāk kvazidistopiskajam, uzmanību piesaistošajam lietojumam A.I., Eyeé koncentrējās uz veidu, kā aizspriedumi var iezagt šķietami ikdienišķākos ikdienas tehnoloģiju lietojumos, tostarp Google instrumenti. "Uzņēmumā Google šie izaicinājumi mums nav sveši," sacīja Eyeé. "Pēdējos gados mēs vairākas reizes esam bijuši virsrakstos par to, kā mūsu algoritmi ir negatīvi ietekmējuši cilvēkus." Piemēram, Google ir izstrādājis rīku klasificējot komentāru toksiskumu tiešsaistē. Lai gan tas var būt ļoti noderīgi, tas bija arī problemātiski: frāzes, piemēram, “es esmu melnādainā geju sieviete”, sākotnēji tika klasificētas kā vairāk toksisks nekā "es esmu baltais cilvēks". Tas bija saistīts ar nepilnību apmācību datu kopās, vairāk sarunu par noteiktām identitātēm nekā citi.
Abi Google vadītāji sacīja, ka šīm problēmām nav visaptverošu labojumu. Ja tiek konstatētas problēmas, Google strādā, lai novērstu neobjektivitāti. Bet potenciālo vietu apjoms, kur sistēmās var iekļūt neobjektivitāte — no algoritmu izstrādes līdz to izstrādei izvietošana sociālajā kontekstā, kurā dati tiek ražoti, nozīmē, ka vienmēr būs problēmas piemēri. Galvenais ir to apzināties, ļaut rūpīgi pārbaudīt šādus rīkus un lai dažādas kopienas varētu paust savu viedokli par šo tehnoloģiju izmantošanu.
Redaktoru ieteikumi
- Vai A.I. pārspēt cilvēku inženierus mikroshēmu projektēšanā? Google tā domā
- BigSleep A.I. ir kā Google attēlu meklēšana attēliem, kas vēl neeksistē
- Google atgriež cilvēkus, lai pārņemtu YouTube satura regulēšanu no A.I.
- Viltus ziņas? A.I. algoritms atklāj politisko neobjektivitāti lasītajos stāstos
- A.I. mērogošana liek šai 1896. gada filmai izskatīties tā, it kā tā būtu uzņemta žilbinošā 4K kvalitātē
Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.