Du „Google“ vadovai penktadienį pareiškė, kad dirbtinio intelekto šališkumas kenkia ir taip marginalizuotoms Amerikos bendruomenėms ir kad reikia daugiau nuveikti, kad taip nenutiktų. X. Eyeé, atsakingų „Google“ naujovių informavimo lyderis ir Angela Williams, „Google“ politikos vadovas, kalbėjo (Ne IRL) „Pride“ viršūnių susitikimas, renginys, kurį organizuoja Lesbians Who Tech & Allies, didžiausia pasaulyje LGBTQ organizacija, skirta moterims, ne dvejetainiams ir translyčiams žmonėms visame pasaulyje.
Į atskiraspokalbiaiJie nagrinėjo būdus, kuriais mašininio mokymosi technologija gali būti naudojama siekiant pakenkti juodaodžių bendruomenei ir kitoms bendruomenėms Amerikoje ir plačiau visame pasaulyje.
Rekomenduojami vaizdo įrašai
Algoritmų šališkumas NĖRA TIK DUOMENŲ PROBLEMA. Pasirinkimas naudoti AI gali būti šališkas, algoritmo mokymosi būdas gali būti šališkas, o naudotojų poveikis / sąveika su sistema / sistemos suvokimas gali sustiprinti šališkumą! kasos @timnitGebrudarbas norint sužinoti daugiau!
– X. Akis??? (@TechWithX) 2020 m. birželio 26 d
Williamsas aptarė A.I. plačiam stebėjimui, jo vaidmuo per didelis policijos darbas, ir jos įgyvendinimas už šališką bausmę. „[Tai nėra], kad technologija yra rasistinė, bet mes galime užkoduoti savo nesąmoningą šališkumą į technologijas“, - sakė ji. Williamsas pabrėžė Roberto Juliano-Borchako Williamso atvejis, afroamerikietis iš Detroito, kuris neseniai buvo neteisingai sulaikytas po to, kai veido atpažinimo sistema neteisingai suderino jo nuotrauką su saugos filmuota medžiaga, kurioje užfiksuotas vagis. Ankstesni tyrimai parodė, kad veido atpažinimo sistemoms gali būti sunku atskirti skirtingus juodaodžius. „Čia A.I.... stebėjimas gali būti siaubingai klaidingas realiame pasaulyje“, – sakė Williamsas.
X. Eyeé taip pat aptarė, kaip A.I. gali padėti „didinti ir sustiprinti nesąžiningą šališkumą“. Be daugiau beveik distopinio, dėmesį patraukiančio naudojimo A.I., Eyeé sutelkė dėmesį į tai, kaip šališkumas gali įsiskverbti į kasdieniškesnį technologijų naudojimą, įskaitant „Google“ įrankiai. „Mums „Google“ šie iššūkiai nėra svetimi“, – sakė Eyeé. „Pastaraisiais metais... kelis kartus buvome antraštėse apie tai, kaip mūsų algoritmai neigiamai paveikė žmones. Pavyzdžiui, „Google“ sukūrė įrankį klasifikuojant komentarų toksiškumą internete. Nors tai gali būti labai naudinga, tai taip pat buvo problematiška: tokios frazės kaip „aš esu juoda gėjus“ iš pradžių buvo klasifikuojamos kaip daugiau toksiškas nei „aš esu baltas žmogus“. Taip atsitiko dėl mokymo duomenų rinkinių spragos, daugiau pokalbių apie tam tikras tapatybes nei kiti.
Abu „Google“ vadovai teigė, kad šios problemos nėra visiškai išspręstos. Kur randama problemų, „Google“ stengiasi pašalinti šališkumą. Tačiau galimų vietų, kur šališkumas gali patekti į sistemas, apimtis – nuo algoritmų kūrimo iki jų pritaikymas visuomeniniam kontekstui, kuriame gaunami duomenys, reiškia, kad visada bus problemų pavyzdžių. Svarbiausia yra tai žinoti, leisti tokias priemones nuodugniai išnagrinėti ir, kad įvairios bendruomenės galėtų išgirsti savo nuomonę apie šių technologijų naudojimą.
Redaktorių rekomendacijos
- Ar gali A.I. pranoko žmonių inžinierius kuriant mikroschemas? „Google“ taip mano
- BigSleep A.I. yra kaip „Google“ vaizdų paieška, skirta nuotraukoms, kurių dar nėra
- „Google“ sugrąžina žmones, kad jie perimtų „YouTube“ turinio moderavimą iš A.I.
- Netikros naujienos? A.I. algoritmas atskleidžia politinį šališkumą skaitomose istorijose
- A.I. Padidinus mastelį, šis 1896 m. filmas atrodo taip, lyg būtų nufilmuotas akinančia 4K raiška
Atnaujinkite savo gyvenimo būdąSkaitmeninės tendencijos padeda skaitytojams stebėti sparčiai besivystantį technologijų pasaulį – pateikiamos visos naujausios naujienos, smagios produktų apžvalgos, įžvalgūs vedamieji leidiniai ir unikalūs žvilgsniai.