Noul test este conceput pentru a detecta discriminarea în programele AI

Ce-este-google-duplex
Inteligența artificială nu este încă conștientă, dar algoritmii pot încă discrimina, exprimând uneori subtil părtinirile ascunse ale programatorilor care i-au creat. Este o problemă mare și complicată, deoarece sistemele AI devin mai implicate în viața de zi cu zi.

Dar poate exista o soluție – sau cel puțin o modalitate de a monitoriza algoritmii și de a spune dacă aceștia au discriminat în mod necorespunzător un grup demografic.

Videoclipuri recomandate

„Regulile de predicție învățate sunt adesea prea complexe pentru a fi înțelese.”


Propus de o echipă de informaticieni de la Google, Universitatea din Chicago și Universitatea din Texas, Austin, Egalitatea de șanse în învățarea supravegheată abordarea analizează deciziile pe care programele de învățare automată le iau – mai degrabă decât procesele de luare a deciziilor în sine – pentru a detecta discriminarea. Însăși natura acestor algoritmi este să ia decizii pe cont propriu, cu propria lor logică, într-o cutie neagră ascunsă de revizuirea umană. Ca atare, cercetătorii consideră că obținerea accesului la cutiile negre este practic inutilă.

„Regulile de predicție învățate sunt adesea prea complexe pentru a fi înțelese”, spune un om de știință informatic și coautor de la Universitatea din Chicago, Nathan Srebro, a spus Digital Trends. „Într-adevăr, scopul învățării automate este de a învăța automat o regulă bună [statistic]... nu una a cărei descriere are neapărat sens pentru oameni. Având în vedere această perspectivă a învățării, am vrut, de asemenea, să putem asigura un sentiment de nediscriminare, tratând în același timp regulile învățate ca cutii negre.”

Srebro și coautorii Moritz Hardt de Google și Eric Price de la UT Austin a dezvoltat o abordare pentru a analiza deciziile unui algoritm și pentru a se asigura că acesta nu a discriminat în procesul de luare a deciziilor. Pentru a face acest lucru, ei au condus cu principiul anti-prejudiciabil conform căruia o decizie cu privire la o anumită persoană nu ar trebui să se bazeze exclusiv pe demografia acelei persoane. În cazul unui program de inteligență artificială, decizia algoritmului cu privire la o persoană nu ar trebui să dezvăluie nimic despre sexul sau rasa acelei persoane într-un mod care ar fi discriminatoriu în mod necorespunzător.

Este un test care nu rezolvă problema în mod direct, ci ajută la semnalarea și prevenirea proceselor discriminatorii. Din acest motiv, unii cercetători sunt precauți.

„Învățarea automată este grozavă dacă o utilizați pentru a găsi cea mai bună modalitate de a ruta o conductă de petrol.” Noel Sharkey, a declarat profesor emerit de robotică și inteligență artificială la Universitatea din Sheffield Gardianul. „Până când vom ști mai multe despre cum funcționează părtinirile în ei, aș fi foarte îngrijorat de faptul că ei fac predicții care afectează viața oamenilor.”

Srebro recunoaște această îngrijorare, dar nu o consideră o critică totală a abordării echipelor sale. „Sunt de acord că în multe aplicații cu mize mari impact asupra persoanelor, în special de către guvern și autorităților judiciare, utilizarea predictorilor statistici cutia neagră nu este adecvată, iar transparența este vitală.” el a spus. „În alte situații, atunci când sunt utilizați de entități comerciale și când mizele individuale sunt mai mici, predictorii statistici cutia neagră ar putea fi adecvați și eficienți. Ar putea fi greu să le interziceți complet, dar totuși este de dorit să controlați discriminarea specifică protejată.”

The lucrare despre egalitatea de șanse în învățarea supervizată a fost una dintre puținele prezentate luna aceasta la Neural Information Processing Systems (NIPS) din Barcelona, ​​Spania, care a oferit abordări pentru detectarea discriminării în algoritmi, potrivit Gardianul.

Recomandările editorilor

  • Google Bard ar putea deveni în curând noul tău antrenor de viață AI
  • Noua companie de inteligență artificială a lui Elon Musk își propune să „înțeleagă universul”
  • Tot internetul aparține acum IA Google
  • Google le spune lucrătorilor să se ferească de chatbot-urile AI
  • Ce este MusicLM? Consultați AI-ul Google text-to-muzică

Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.