Môže však existovať oprava - alebo aspoň spôsob, ako monitorovať algoritmy a zistiť, či nevhodne diskriminovali demografickú skupinu.
Odporúčané videá
"Naučené pravidlá predpovedí sú často príliš zložité na pochopenie."
Navrhnutý tímom počítačových vedcov z Google, University of Chicago a University of Texas, Austin, Rovnosť príležitostí v kontrolovanom vzdelávaní Tento prístup analyzuje rozhodnutia, ktoré robia programy strojového učenia – a nie samotné rozhodovacie procesy – s cieľom odhaliť diskrimináciu. Vlastnou povahou týchto algoritmov je robiť rozhodnutia samostatne, s vlastnou logikou, v čiernej skrinke skrytej pred ľudským hodnotením. Ako taký považujú výskumníci získanie prístupu k čiernym skrinkám za prakticky zbytočný.
"Naučené pravidlá predikcie sú často príliš zložité na to, aby sme ich pochopili," povedal počítačový vedec a spoluautor University of Chicago Nathan Srebro, povedal Digital Trends. „V skutočnosti je cieľom strojového učenia sa automaticky naučiť [štatisticky] dobré pravidlo... nie také, ktorého popis nevyhnutne dáva ľuďom zmysel. S týmto pohľadom na učenie sme tiež chceli byť schopní zabezpečiť pocit nediskriminácie a zároveň považovať naučené pravidlá za čierne skrinky.“
Srebro a spoluautori Moritz Hardt spoločnosti Google a Eric Price z UT Austin vyvinul prístup k analýze rozhodnutí algoritmu a ubezpečil sa, že nediskriminuje v procese rozhodovania. Aby to dosiahli, viedli proti predsudkom, že rozhodnutie o konkrétnej osobe by nemalo byť založené výlučne na demografickej skupine tejto osoby. V prípade programu AI by rozhodnutie algoritmu o osobe nemalo prezrádzať nič o pohlaví alebo rase tejto osoby spôsobom, ktorý by bol neprimerane diskriminačný.
Je to test, ktorý nerieši problém priamo, ale pomáha označovať a predchádzať diskriminačným procesom. Z tohto dôvodu sú niektorí výskumníci opatrní.
„Strojové učenie je skvelé, ak ho používate na nájdenie najlepšieho spôsobu vedenia ropovodu,“ Noel Sharkey, povedal emeritný profesor robotiky a AI na univerzite v Sheffielde The Guardian. "Kým nebudeme vedieť viac o tom, ako v nich fungujú predsudky, bol by som veľmi znepokojený tým, že budú robiť predpovede, ktoré ovplyvňujú životy ľudí."
Srebro si uvedomuje túto obavu, ale nepovažuje to za rozsiahlu kritiku prístupu svojich tímov. „Súhlasím s tým, že v mnohých aplikáciách s vysokým dopadom na jednotlivcov, najmä zo strany vlády a súdne orgány, používanie štatistických prediktorov čiernej skrinky nie je vhodné a transparentnosť je nevyhnutná,“ povedal. „V iných situáciách, keď ich používajú komerčné subjekty a keď sú jednotlivé podiely nižšie, môžu byť vhodné a účinné štatistické prediktory čiernej skrinky. Môže byť ťažké ich úplne zakázať, ale stále je žiaduce kontrolovať špecifickú chránenú diskrimináciu.“
The dokument o rovnosti príležitostí v kontrolovanom vzdelávaní bola jednou z mála predstavených tento mesiac na Neural Information Processing Systems (NIPS) v Barcelone v Španielsku, ktorá ponúkala prístupy k detekcii diskriminácie v algoritmoch, podľa The Guardian.
Odporúčania redaktorov
- Google Bard by sa čoskoro mohol stať vaším novým trénerom života AI
- Nová spoločnosť Elona Muska zameraná na umelú inteligenciu má za cieľ „pochopiť vesmír“
- Celý internet teraz patrí AI spoločnosti Google
- Google hovorí pracovníkom, aby si dávali pozor na AI chatboty
- Čo je MusicLM? Vyskúšajte umelú inteligenciu Googlu na prevod textu na hudbu
Zlepšite svoj životný štýlDigitálne trendy pomáhajú čitateľom mať prehľad o rýchlo sa rozvíjajúcom svete technológií so všetkými najnovšími správami, zábavnými recenziami produktov, užitočnými úvodníkmi a jedinečnými ukážkami.