Directorii Google explică cum A.I. Poate amplifica rasismul

Doi directori Google au declarat vineri că părtinirea inteligenței artificiale afectează comunitățile deja marginalizate din America și că trebuie făcut mai mult pentru a se asigura că acest lucru nu se întâmplă. X. Ochi, lider de informare pentru inovare responsabilă la Google și Angela Williams, manager de politici la Google, a vorbit la (Nu IRL) Pride Summit, un eveniment organizat de Lesbians Who Tech & Allies, cea mai mare organizație LGBTQ axată pe tehnologie din lume pentru femei, persoane non-binare și trans din întreaga lume.

În separadiscuții, au abordat modalitățile în care tehnologia de învățare automată poate fi folosită pentru a dăuna comunității negre și altor comunități din America - și mai larg în întreaga lume.

Videoclipuri recomandate

Prejudecățile în algoritmi NU ESTE DOAR O PROBLEMĂ DE DATE. Alegerea de a utiliza AI poate fi părtinitoare, modul în care algoritmul învață poate fi părtinitor, iar modul în care utilizatorii sunt afectați/interacționează cu/percep un sistem poate întări părtinirea! verifică @timnitGebrue munca pentru a afla mai multe!

- X. Ochi??? (@TechWithX) 26 iunie 2020

Williams a discutat despre utilizarea A.I. pentru supravegherea generală, rolul său în poliție excesivă, și implementarea acesteia pentru condamnarea părtinitoare. „[Nu este] că tehnologia este rasistă, dar putem codifica în propria noastră părtinire inconștientă tehnologia”, a spus ea. Williams a evidențiat cazul lui Robert Julian-Borchak Williams, un bărbat afro-american din Detroit care a fost recent arestat în mod greșit după ce un sistem de recunoaștere facială i-a asociat incorect fotografia cu imaginile de securitate ale unui hoț. Studiile anterioare au arătat că sistemele de recunoaștere facială pot avea probleme distinge între diferiți oameni de culoare. „Aici este locul unde A.I. … supravegherea poate merge teribil de prost în lumea reală”, a spus Williams.

X. Eyeé a discutat și despre modul în care A.I. poate ajuta la „scalarea și întărirea părtinirii neloiale”. Pe lângă utilizările mai cvasi-distopice, care atrage atenția A.I., Eyeé s-a concentrat asupra modului în care prejudecățile s-ar putea strecura în utilizări aparent banale, de zi cu zi, ale tehnologiei – inclusiv cea a Google. unelte. „La Google, nu suntem străini de aceste provocări”, a spus Eyeé. „În ultimii ani... am fost în titluri de mai multe ori pentru modul în care algoritmii noștri au afectat negativ oamenii.” De exemplu, Google a dezvoltat un instrument pentru clasificarea toxicității comentariilor online. Deși acest lucru poate fi foarte util, a fost și problematic: expresii precum „Sunt o femeie gay de culoare” au fost inițial clasificate ca fiind mai multe toxic decât „Sunt un om alb”. Acest lucru s-a datorat unui decalaj în seturile de date de antrenament, cu mai multe conversații despre anumite identități decât alții.

Nu există soluții globale pentru aceste probleme, au spus cei doi directori Google. Oriunde se găsesc probleme, Google lucrează pentru a elimina prejudecățile. Dar amploarea locurilor potențiale în care părtinirea poate pătrunde în sisteme - de la proiectarea algoritmilor până la a acestora implementarea în contextul societal în care sunt produse datele - înseamnă că vor exista întotdeauna probleme exemple. Cheia este să fim conștienți de acest lucru, să permiteți ca astfel de instrumente să fie examinate și ca diversele comunități să își poată face auzite vocea despre utilizarea acestor tehnologii.

Recomandările editorilor

  • Poate A.I. bate inginerii umani la proiectarea microcipurilor? Google crede așa
  • The BigSleep A.I. este ca Google Image Search pentru imagini care nu există încă
  • Google aduce oamenii înapoi pentru a prelua moderarea conținutului YouTube de la A.I.
  • Știri false? A.I. algoritmul dezvăluie părtinire politică în poveștile pe care le citiți
  • A.I. Upscaling face ca acest film din 1896 să pară filmat în 4K uluitor

Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.