Nytt test är utformat för att upptäcka diskriminering i AI-program

click fraud protection
Vad-är-google-duplex
Artificiell intelligens är ännu inte medveten men algoritmer kan fortfarande diskriminera, ibland subtilt uttrycka de dolda fördomarna hos programmerarna som skapade dem. Det är ett stort, komplicerat problem, eftersom AI-system blir mer insnärjda i vardagen.

Men det kan finnas fix - eller åtminstone ett sätt att övervaka algoritmer och berätta om de har diskriminerat en demografi på ett olämpligt sätt.

Rekommenderade videor

"Inlärda förutsägelsesregler är ofta för komplexa för att förstå."


Föreslog av ett team av datavetare från Google, University of Chicago och University of Texas, Austin, Lika möjligheter i övervakat lärande Metoden analyserar de beslut som maskininlärningsprogram fattar – snarare än själva beslutsprocessen – för att upptäcka diskriminering. Själva naturen hos dessa algoritmer är att fatta beslut på egen hand, med sin egen logik, i en svart låda gömd för mänsklig granskning. Som sådan ser forskarna att få tillgång till de svarta rutorna som praktiskt taget meningslöst.

"Inlärda förutsägelsesregler är ofta för komplicerade för att förstå," University of Chicago datavetare och medförfattare, Nathan Srebro, berättade för Digital Trends. "Ja, hela poängen med maskininlärning är att automatiskt lära sig en [statistiskt] bra regel... inte en vars beskrivning nödvändigtvis är vettig för människor. Med denna syn på lärande i åtanke ville vi också kunna säkerställa en känsla av icke-diskriminering samtidigt som vi fortfarande behandlade inlärda regler som svarta lådor.”

Srebro och medförfattare Moritz Hardt av Google och Erik Pris från UT Austin utvecklade ett tillvägagångssätt för att analysera en algoritms beslut och se till att den inte diskriminerade i beslutsprocessen. För att göra detta ledde de med den anti-fördomsfulla principen att ett beslut om en viss person inte bör baseras enbart på den personens demografiska. När det gäller ett AI-program bör algoritmens beslut om en person inte avslöja något om den personens kön eller ras på ett sätt som skulle vara olämpligt diskriminerande.

Det är ett test som inte löser problemet direkt utan hjälper till att flagga och förhindra diskriminerande processer. Av denna anledning är vissa forskare försiktiga.

"Maskininlärning är bra om du använder den för att hitta det bästa sättet att dirigera en oljeledning," Noel Sharkey, berättade emeritus professor i robotik och AI vid University of Sheffield Väktaren. "Tills vi vet mer om hur fördomar fungerar i dem, skulle jag vara mycket oroad över att de gör förutsägelser som påverkar människors liv."

Srebro känner igen denna oro men anser inte att det är en svepande kritik av hans lags inställning. "Jag håller med om att i många applikationer med hög insats påverkan på individer, särskilt av myndigheter och rättsliga myndigheter, användning av svarta lådans statistiska prediktorer är inte lämplig och transparens är avgörande.” han sa. "I andra situationer, när de används av kommersiella enheter och när enskilda insatser är lägre, kan svarta lådans statistiska prediktorer vara lämpliga och effektiva. Det kan vara svårt att helt underkänna dem men ändå önskvärt att kontrollera för specifik skyddad diskriminering.”

De uppsats om lika möjligheter i övervakat lärande var en av en handfull som presenterades denna månad på Neural Information Processing Systems (NIPS) i Barcelona, ​​Spanien, som erbjöd metoder för att upptäcka diskriminering i algoritmer, enligt Väktaren.

Redaktörens rekommendationer

  • Google Bard kan snart bli din nya AI-livscoach
  • Elon Musks nya AI-företag syftar till att "förstå universum"
  • Allt internet tillhör nu Googles AI
  • Google säger åt arbetare att vara försiktiga med AI-chatbots
  • Vad är MusicLM? Kolla in Googles text-till-musik AI

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.