მაგრამ შეიძლება იყოს გამოსწორება - ან თუნდაც გზა ალგორითმების მონიტორინგისთვის და იმის თქმა, მოახდინეს თუ არა მათ არასათანადო დისკრიმინაცია დემოგრაფიის მიმართ.
რეკომენდებული ვიდეოები
"ნასწავლი პროგნოზირების წესები ხშირად ძალიან რთულია გასაგებად."
შემოთავაზებული კომპიუტერის მეცნიერთა გუნდის მიერ Google-ის, ჩიკაგოს უნივერსიტეტისა და ტეხასის უნივერსიტეტის, ოსტინიდან, შესაძლებლობების თანასწორობა ზედამხედველობით სწავლაში მიდგომა აანალიზებს გადაწყვეტილებებს, რომლებსაც იღებენ მანქანური სწავლების პროგრამები - და არა თავად გადაწყვეტილების მიღების პროცესები - დისკრიმინაციის გამოსავლენად. ამ ალგორითმების ბუნება არის გადაწყვეტილებების დამოუკიდებლად მიღება, საკუთარი ლოგიკით, შავ ყუთში, რომელიც დაფარულია ადამიანის განხილვისგან. როგორც ასეთი, მკვლევარები ხედავენ, რომ შავ ყუთებზე წვდომა პრაქტიკულად უშედეგოა.
ჩიკაგოს უნივერსიტეტის კომპიუტერული მეცნიერი და თანაავტორი: „ნასწავლი პროგნოზირების წესები ხშირად ძალიან რთულია გასაგებად. ნათან სრებროგანუცხადა Digital Trends-ს. „ნამდვილად, მანქანათმცოდნეობის მთელი აზრი არის ავტომატურად ისწავლოს [სტატისტიკურად] კარგი წესი… და არა ის, რომლის აღწერა აუცილებლად გონივრული იქნება ადამიანებისთვის. სწავლის ამ ხედვის გათვალისწინებით, ჩვენ ასევე გვინდოდა შეგვეძლო შეგვეძლოს დისკრიმინაციის აკრძალვის განცდა, ხოლო შესწავლილ წესებს შავ ყუთებად მივიჩნევდით“.
სრებრო და თანაავტორები მორიც ჰარდტი Google-ის და ერიკ პრაისი UT Austin-მა შეიმუშავა მიდგომა ალგორითმის გადაწყვეტილებების გასაანალიზებლად და დარწმუნდა, რომ იგი არ იყო დისკრიმინაცია გადაწყვეტილების მიღების პროცესში. ამისათვის მათ ხელმძღვანელობდნენ ანტიპრეიუდიციალური პრინციპით, რომ გადაწყვეტილება კონკრეტული პირის შესახებ არ უნდა ეფუძნებოდეს მხოლოდ ამ პიროვნების დემოგრაფიულ მონაცემებს. ხელოვნური ინტელექტის პროგრამის შემთხვევაში, ალგორითმის გადაწყვეტილებამ პიროვნების შესახებ არ უნდა გამოავლინოს არაფერი ამ ადამიანის სქესის ან რასის შესახებ ისე, რომ იყოს შეუსაბამო დისკრიმინაციული.
ეს არის ტესტი, რომელიც არ წყვეტს პრობლემას პირდაპირ, მაგრამ ეხმარება დროშის და დისკრიმინაციული პროცესების თავიდან აცილებაში. ამ მიზეზით, ზოგიერთი მკვლევარი ფრთხილია.
”მანქანური სწავლა შესანიშნავია, თუ მას იყენებთ ნავთობსადენის მარშრუტის საუკეთესო გზების მოსაძებნად.” ნოელ შარკიგანუცხადა შეფილდის უნივერსიტეტის რობოტიკისა და ხელოვნური ინტელექტის ემერიტუსმა პროფესორმა მცველი. „სანამ მეტი არ გვეცოდინება იმის შესახებ, თუ როგორ მოქმედებს მიკერძოება მათში, მე ძალიან შეშფოთებული ვიქნები მათ მიერ პროგნოზების გაკეთებაზე, რომელიც გავლენას ახდენს ადამიანების ცხოვრებაზე.
სრებრო აცნობიერებს ამ შეშფოთებას, მაგრამ არ მიიჩნევს, რომ მისი გუნდის მიდგომის ფართო კრიტიკაა. ”მე ვეთანხმები, რომ ბევრ აპლიკაციაში, რომელსაც აქვს მაღალი ფსონების გავლენა ინდივიდებზე, განსაკუთრებით მთავრობის და სასამართლო ხელისუფლება, შავი ყუთის სტატისტიკური პროგნოზირების გამოყენება არ არის მიზანშეწონილი და გამჭვირვალობა სასიცოცხლოდ მნიშვნელოვანია. მან თქვა. ”სხვა სიტუაციებში, როდესაც გამოიყენება კომერციული სუბიექტების მიერ და როდესაც ინდივიდუალური ფსონები დაბალია, შავი ყუთის სტატისტიკური პროგნოზები შეიძლება იყოს შესაბამისი და ეფექტური. შეიძლება ძნელი იყოს მათი სრულად აკრძალვა, მაგრამ მაინც სასურველია კონკრეტული დაცული დისკრიმინაციის კონტროლი.”
The ნაშრომი შესაძლებლობათა თანასწორობის შესახებ ზედამხედველობით სწავლაში იყო ერთ-ერთი იმ მცირერიცხოვანთაგან, რომელიც წარმოდგენილი იყო ამ თვეში ნეირონული ინფორმაციის დამუშავების სისტემებში (NIPS) ბარსელონაში, ესპანეთი, რომელიც სთავაზობდა მიდგომებს ალგორითმებში დისკრიმინაციის აღმოსაჩენად. მცველი.
რედაქტორების რეკომენდაციები
- Google Bard შეიძლება მალე გახდეს თქვენი ახალი AI ცხოვრების მწვრთნელი
- ელონ მასკის ახალი AI კომპანია მიზნად ისახავს "სამყაროს გაგებას"
- მთელი ინტერნეტი ახლა Google-ის AI-ს ეკუთვნის
- Google ეუბნება მუშებს, რომ ფრთხილად იყვნენ ხელოვნური ინტელექტის ჩატბოტების მიმართ
- რა არის MusicLM? შეამოწმეთ Google-ის ტექსტი მუსიკა AI
განაახლეთ თქვენი ცხოვრების წესიDigital Trends ეხმარება მკითხველს თვალყური ადევნონ ტექნოლოგიების სწრაფ სამყაროს ყველა უახლესი სიახლეებით, სახალისო პროდუქტების მიმოხილვებით, გამჭრიახი რედაქციებითა და უნიკალური თვალით.