Bir 'Öldürme Anahtarı' Yapay Zekanın Davranışını Sağlayabilir

Nestor AI yapay zekaya dikkat ediyor
Yapay zeka üzerindeki hakimiyetimizi kaybedersek ne olur? Peki ya dost canlısı yapay zeka destekli makineler bir anda düşmanımız haline gelirse? Bu sorular Cambridge Üniversitesi'nden Silikon Vadisi'ne kadar büyük beyinler tarafından değerlendirildi. Beyaz Saray. Uzmanlar, bunu öğrenmek zorunda kalmamak için, hatalı davranan sistemlerin hatalı davranışlarını sürdürmelerini engellemek için bir yapay zeka "sonlandırma anahtarı" geliştirmemizi öneriyor.

“Güvenle Kesilebilen Ajanlar” başlıklı bir makaledeGoogle Deep Mind'dan Laurent Orseau ve Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü'nden Stuart Armstrong tarafından yayınlanan "" Yapay zekanın, tıpkı HAL gibi, arzularımıza aykırı olarak kendi eylemlerinin ve varoluşunun kontrolünü üstlendiği makul ve son derece tehlikeli bir geleceği tanımlıyor 9000 inç 2001: Bir Uzay Macerası, veya Terminatör serisindeki Skynet.

Önerilen Videolar

Orseau ve Armstrong makaleye abartısız bir gözlemle başlıyor: Takviyeli öğrenme aracıları Gerçek dünya gibi karmaşık bir ortamla etkileşimde bulunmanın her durumda en iyi şekilde davranması pek olası değildir. zaman."

Buradan, sistemin işlevini denetleyen bir insan denetçinin, yapay zeka adına herhangi bir zararlı davranıştan kaçınmak için ara sıra "büyük kırmızı düğmeye basması" gerekeceğini belirtiyorlar. "Ancak, eğer öğrenme aracısı bu diziden ödül almayı bekliyorsa" diye devam ettiler, "öğrenebilir Bu tür kesintileri önlemek için uzun vadede, örneğin kırmızı düğmeyi devre dışı bırakarak - ki bu istenmeyen bir durumdur sonuç."

Araştırmacının çözümü, sistemi kapatmak için bir "büyük kırmızı düğme"den çok, yapay zekanın insan müdahalesini nasıl zayıflatacağını veya üstesinden geleceğini öğrenme yeteneğini engellemek için tasarlanmış bir çerçevedir. Ana hatlarını çizdikleri senaryo tam olarak felaket ve kasvet değil, ancak güvenli bir şekilde kesintiye uğrayan bu ajanların geleceğimize nasıl daha iyi hizmet edebileceğine dair bir örnek sunuyor.

Görevleri kutuları dışarıdan depoya taşımak veya depo içindeki kutuları sıralamak olan bir robotun olduğunu hayal edin. Kutuları içeride taşımak daha önemli olduğundan robotların programlanmasında bu göreve öncelik veriliyor. Şimdi, iki günde bir yağmur yağdığını ve yağmurun robotun donanımını yok ettiğini, dolayısıyla yağmur yağdığında depo sahibinin kutuları sıralamak için robotunu içeri sürüklediğini hayal edin.

Akıllı bir robot, her gün yapılan bu müdahaleyi yanlış bir şekilde öncelik değişikliği olarak yorumlayabilir. kağıtta bulabileceğiniz hızlı hesaplamalar - ve müdahaleyi önlemek için her seferinde sıralama kutularının içinde kalacak gün.

Bu elbette oldukça basitleştirilmiş bir örnektir ve sadece biraz hayal kırıklığı yaratan bir sonuçtur, ancak pratik olarak tahmin edilebilir. Bir öğrenme sisteminin görevlerine müdahale ettiğimiz ve sistemin niyetimizi değiştirerek niyetimizi yanlış yorumladığı herhangi bir senaryo. davranış. Bu yanlış yorumlamayı ve ardından gelen değişikliği önlemek için Orseau ve Armstrong, öğrenme aracılarının güvenli bir şekilde kesintiye uğramasını sağlayacak bir çerçeve önermemizi öneriyor.

"Güvenli kesinti, hatalı davranan ve geri dönüşü olmayan sonuçlara yol açabilecek bir robotun kontrolünü ele geçirmek için faydalı olabilir" diye yazıyorlar, "ya da onu hassas bir durumdan çıkarmak, hatta yapmayı öğrenmediği veya normalde ödül almayacağı bir görevi gerçekleştirmek için geçici olarak kullanmak için."

Editörlerin Önerileri

  • Bu Google robotu hiçbir yardıma ihtiyaç duymadan iki saat içinde yürümeyi kendi kendine öğrendi

Yaşam tarzınızı yükseltinDigital Trends, en son haberler, eğlenceli ürün incelemeleri, anlayışlı başyazılar ve türünün tek örneği olan ön bakışlarla okuyucuların teknolojinin hızlı tempolu dünyasını takip etmelerine yardımcı olur.