Nový test je navržen tak, aby detekoval diskriminaci v programech umělé inteligence

Co-je-google-duplex
Umělá inteligence ještě není vědomá, ale algoritmy dokážou stále rozlišovat a někdy nenápadně vyjadřovat skryté předsudky programátorů, kteří je vytvořili. Je to velký a komplikovaný problém, protože systémy umělé inteligence se stále více zapojují do každodenního života.

Ale může existovat oprava - nebo alespoň způsob, jak monitorovat algoritmy a zjistit, zda nevhodně diskriminovaly demografickou skupinu.

Doporučená videa

"Naučená pravidla předpovědí jsou často příliš složitá na to, aby je bylo možné pochopit."


Navržený týmem počítačových vědců z Google, University of Chicago a University of Texas, Austin, Rovnost příležitostí v kontrolovaném učení Tento přístup analyzuje rozhodnutí, která provádějí programy strojového učení – spíše než samotné rozhodovací procesy – za účelem odhalení diskriminace. Samotnou povahou těchto algoritmů je činit rozhodnutí samy o sobě, s vlastní logikou, v černé skříňce skryté lidské kontrole. Vědci proto považují získání přístupu k černým skříňkám za prakticky marné.

"Naučená pravidla předpovědí jsou často příliš složitá na to, aby je bylo možné pochopit," informatik a spoluautor University of Chicago Nathan Srebro, řekl Digital Trends. „Ve skutečnosti je smyslem strojového učení automaticky se naučit [statisticky] dobré pravidlo… ne takové, jehož popis nutně dává lidem smysl. S ohledem na tento pohled na učení jsme také chtěli být schopni zajistit pocit nediskriminace a přitom stále zacházet s naučenými pravidly jako s černými skříňkami.“

Srebro a spoluautoři Moritz Hardt společnosti Google a Eric Price z UT Austin vyvinul přístup k analýze rozhodnutí algoritmu a ujištění se, že nediskriminuje v rozhodovacím procesu. Za tímto účelem vedli zásadu proti předsudkům, že rozhodnutí o konkrétní osobě by nemělo být založeno pouze na demografické skupině této osoby. V případě programu AI by rozhodnutí algoritmu o osobě nemělo odhalit nic o pohlaví nebo rase této osoby způsobem, který by byl nepřiměřeně diskriminační.

Je to test, který neřeší problém přímo, ale pomáhá označovat a předcházet diskriminačním procesům. Z tohoto důvodu jsou někteří badatelé opatrní.

"Strojové učení je skvělé, pokud jej používáte k nalezení nejlepšího způsobu vedení ropovodu," Noel Sharkey, řekl emeritní profesor robotiky a umělé inteligence na univerzitě v Sheffieldu Opatrovník. "Dokud nebudeme vědět více o tom, jak v nich fungují předsudky, velmi bych se obával, že budou předpovídat, které ovlivňují životy lidí."

Srebro si tuto obavu uvědomuje, ale nepovažuje to za rozsáhlou kritiku přístupu svých týmů. „Souhlasím s tím, že v mnoha aplikacích s vysokým dopadem na jednotlivce, zejména ze strany vlády a soudní orgány, použití statistických prediktorů černé skříňky není vhodné a transparentnost je zásadní,“ řekl. „V jiných situacích, kdy je používají komerční subjekty a kdy jsou jednotlivé sázky nižší, mohou být vhodné a účinné statistické prediktory černé skříňky. Může být těžké je úplně zakázat, ale stále je žádoucí kontrolovat specifickou chráněnou diskriminaci.“

The referát o rovnosti příležitostí v kontrolovaném učení byl jedním z mála představených tento měsíc na Neural Information Processing Systems (NIPS) v Barceloně ve Španělsku, který nabízel přístupy k detekci diskriminace v algoritmech, uvádí Opatrovník.

Doporučení redakce

  • Google Bard by se mohl brzy stát vaším novým koučem života AI
  • Nová společnost Elona Muska zaměřená na umělou inteligenci si klade za cíl ‚porozumět vesmíru‘
  • Veškerý internet nyní patří AI společnosti Google
  • Google říká pracovníkům, aby si dávali pozor na AI chatboty
  • Co je MusicLM? Podívejte se na umělou inteligenci Google pro převod textu na hudbu

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.