그러나 해결책이 있을 수 있습니다. 또는 적어도 알고리즘을 모니터링하고 인구 통계를 부적절하게 차별했는지 여부를 알 수 있는 방법이 있을 수 있습니다.
추천 동영상
"학습된 예측 규칙은 이해하기에는 너무 복잡한 경우가 많습니다."
Google, 시카고 대학교, 텍사스 대학교 오스틴 캠퍼스의 컴퓨터 과학자 팀이 제안한 지도 학습의 기회 평등 접근 방식은 차별을 탐지하기 위해 의사 결정 프로세스 자체가 아닌 기계 학습 프로그램이 내리는 결정을 분석합니다. 이러한 알고리즘의 본질은 사람의 검토가 불가능한 블랙박스에서 자체 논리를 사용하여 스스로 결정을 내리는 것입니다. 따라서 연구원들은 블랙박스에 접근하는 것이 사실상 무의미하다고 봅니다.
"학습된 예측 규칙은 이해하기에는 너무 복잡한 경우가 많습니다." 시카고 대학의 컴퓨터 과학자이자 공동 저자입니다. 네이선 스레브로, Digital Trends에 말했습니다. “실제로 기계 학습의 요점은 [통계적으로] 좋은 규칙을 자동으로 학습하는 것입니다. 설명이 반드시 인간에게 의미가 있는 규칙은 아닙니다. 학습에 대한 이러한 관점을 염두에 두고, 우리는 학습된 규칙을 블랙박스로 취급하면서 비차별성을 보장할 수 있기를 원했습니다.”
Srebro 및 공동 저자 모리츠 하트 Google과 에릭 프라이스 UT Austin의 대학은 알고리즘의 결정을 분석하고 의사 결정 과정에서 차별이 없는지 확인하는 접근 방식을 개발했습니다. 이를 위해 그들은 특정 개인에 대한 결정이 그 개인의 인구통계학적 특성에만 기초해 이루어져서는 안 된다는 반편견 원칙을 내세웠습니다. AI 프로그램의 경우, 개인에 대한 알고리즘의 결정은 부적절하게 차별적인 방식으로 개인의 성별이나 인종에 관한 어떤 것도 공개해서는 안 됩니다.
문제를 직접 해결하지는 않지만 차별적 프로세스를 식별하고 방지하는 데 도움이 되는 테스트입니다. 이러한 이유로 일부 연구자들은 경계하고 있습니다.
"석유 파이프라인 경로를 지정하는 최선의 방법을 찾는 데 머신러닝을 사용한다면 머신러닝은 훌륭합니다." 노엘 샤키셰필드대학교 로봇공학 및 AI 명예교수는 이렇게 말했습니다. 수호자. "편견이 어떻게 작용하는지 더 많이 알 때까지 나는 그들이 사람들의 삶에 영향을 미치는 예측을 하는 것에 대해 매우 걱정할 것입니다."
Srebro는 이러한 우려를 인식하지만 팀의 접근 방식에 대한 전면적인 비판을 고려하지는 않습니다. “개인, 특히 정부와 기관이 개인에게 큰 영향을 미치는 많은 응용 프로그램에서 동의합니다. 사법 당국에서는 블랙박스 통계 예측 변수를 사용하는 것이 적절하지 않으며 투명성이 중요합니다.” 그는 말했다. “다른 상황에서는 상업적인 단체가 사용하고 개별 지분이 더 낮은 경우 블랙박스 통계 예측기가 적절하고 효율적일 수 있습니다. 이를 완전히 금지하는 것은 어려울 수 있지만 특정 보호되는 차별을 통제하는 것은 여전히 바람직합니다.”
그만큼 지도 학습의 기회 평등에 관한 논문 이번 달 스페인 바르셀로나의 신경정보처리시스템(NIPS)에서 발표된 소수의 논문 중 하나였습니다. 이 시스템은 알고리즘의 차별을 탐지하는 접근 방식을 제시했습니다. 수호자.
편집자의 추천
- Google Bard가 곧 새로운 AI 라이프 코치가 될 수 있습니다.
- 엘론 머스크의 새로운 AI 회사는 '우주 이해'를 목표로 한다
- 이제 모든 인터넷은 Google의 AI에 속합니다
- 구글, 직원들에게 AI 챗봇 조심하라고 당부
- MusicLM이란 무엇인가요? Google의 텍스트를 음악으로 변환하는 AI를 확인해 보세요.
당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.