Muhtemelen aşinasınızdır derin sahtekarlıklarİnsanları gerçekte hiç gerçekleşmemiş şeyleri görmeleri veya duymaları konusunda kandırabilen, dijital olarak değiştirilmiş "sentetik medya". Karşıt örnekler, görüntü tanıma yapay zekası için deepfake'ler gibidir. sistemler - ve bize biraz bile garip görünmeseler de, makinelerin aklını karıştırabilirler.
İçindekiler
- Düşman saldırılarını savuşturmak
- Hala yapılacak daha fazla iş var
Birkaç yıl önceMassachusetts Teknoloji Enstitüsü Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı'ndaki (CSAIL) araştırmacılar şunları buldu: karmaşık görüntü tanıma algoritmalarını bile kandırarak nesnelerin yüzeylerini hafifçe değiştirerek kafa karıştırıcı hale getirebilirler doku. Bunlar da küçük karışıklıklar değildi.
Araştırmacıların gösterisinde, 3D baskılı bir kaplumbağaya bakıp bunun yerine bir tüfek görmenin mümkün olduğunu gösterdiler. Veya bir beyzbol topuna bakıp onun bir espresso olduğu sonucuna varmak. Böyle bir görsel agnozi bir insanda ortaya çıksaydı, Oliver Sacks'ın klasiği gibi bir kitapta yer alacak türden bir nörolojik vaka çalışması olurdu.
Karısını Şapka Sanan Adam.Önerilen Videolar
Çelişkili örnekler, görsel yapay zekanın ne kadar etkili olduğu konusunda büyüleyici bir güvenlik açığını temsil ediyor. Sistemler dünyayı görüyor. Ama aynı zamanda, yeni oyuncak kaplumbağayı tüfekle karıştıran bir kusurdan da bekleyeceğiniz gibi, potansiyel olarak endişe verici bir durumu temsil ediyorlar. Bu, araştırmacıların umutsuzca nasıl yama yapılacağını bulmaya çalıştığı bir şey.
Şimdi ise MIT'den başka bir grup araştırmacı, "düşmanca" girdilerden kaçınmaya yardımcı olabilecek yeni bir sistem geliştirdi. Bu süreçte, saldırgan örnekler için açıkçası dehşet verici bir kullanım senaryosu hayal ettiler; bu, bilgisayar korsanları tarafından uygulandığı takdirde ölümcül etki yaratacak şekilde kullanılabilecekti.
Senaryo şu: Otonom arabalar etraflarındaki dünyayı algılama konusunda giderek daha iyi hale geliyor. Peki ya aniden bir arabadaki görsel girdi tabanlı yerleşik kameralar bilerek ya da kazara önlerinde ne olduğunu belirleyemez hale gelirse? Yoldaki bir nesneyi yanlış sınıflandırmak (bir yayanın doğru şekilde tanımlanıp yerleştirilememesi gibi) potansiyel olarak çok ama çok kötü sonuçlanabilir.
Düşman saldırılarını savuşturmak
"Grubumuz derin öğrenme, robotik ve kontrol teorisinin arayüzü üzerinde birkaç yıldır çalışıyor. Robotların yayaların etrafında sosyal olarak bilinçli bir şekilde gezinmesini sağlamak için derin RL'yi (takviyeli öğrenme) kullanmaya çalışın." Michael EverettMIT Havacılık ve Uzay Bilimleri Bölümü'nde doktora sonrası araştırmacı olan Digital Trends'e şunları söyledi: "Bu fikirleri daha büyük ve daha hızlı araçlara nasıl uygulayacağımızı düşünürken güvenlik ve sağlamlık soruları en büyük zorluk haline geldi. Bu sorunu derin öğrenmede sağlam kontrol ve sağlam optimizasyon perspektifinden incelemek için harika bir fırsat gördük."
Derin Güçlendirmeli Öğrenme ile Sosyal Farkındalıklı Hareket Planlama
Takviyeli öğrenme, araştırmacılar tarafından ünlü bir şekilde kullanılan, makine öğrenimine yönelik deneme yanılma temelli bir yaklaşımdır. bilgisayarların video oyunları oynamayı öğrenmesini sağlayın nasıl yapılacağı açıkça öğretilmeden. Ekibin yeni takviyeli öğrenme ve derin sinir ağı tabanlı algoritmasına, Derin Takviyeli Öğrenme için Sertifikalı Rekabetçi Sağlamlık'ın kısaltması olan CARRL adı veriliyor. Özünde, bu bir sinir ağı gördüklerine gelince ilave bir şüphecilik dozuyla.
Ford Motor Company tarafından desteklenen çalışmalarının bir gösteriminde araştırmacılar, klasik Atari oyununu oynayabilecek bir takviyeli öğrenme algoritması geliştirdiler. Pong. Ancak önceki RL oyunu oyuncularından farklı olarak, kendi versiyonlarında, yapay zekayı devre dışı bırakan düşmanca bir saldırı uyguladılar. menajerin oyunun topun pozisyonuna ilişkin değerlendirmesi, topun gerçekte olduğundan birkaç piksel daha düşük olduğunu düşündürüyor öyleydi. Normalde bu, A.I. Oyuncunun büyük bir dezavantaja sahip olması, bilgisayar rakibine karşı defalarca kaybetmesine neden oluyor. Ancak bu durumda RL temsilcisi topun tüm yerlerini düşünür. abilir olun ve ardından raketi konum değişikliği ne olursa olsun ıskalamayacağı bir yere yerleştirin.
"Güçlü derin öğrenme algoritmalarının bu yeni kategorisi, gelecek vaat eden yapay zekayı getirmek için gerekli olacak. teknikleri gerçek dünyaya aktarıyor.
Elbette Everett'in de kabul ettiği gibi oyunlar gerçek dünyaya göre çok daha basitleştirilmiş durumda.
"Gerçek dünyada kusurlu sensörler veya düşmanca saldırılar nedeniyle video oyunlarından çok daha fazla belirsizlik var ve bu da derin öğrenmeyi kandırmak için yeterli olabilir." tehlikeli kararlar almaya yönelik sistemler - [örneğin] yolda bir noktayı sprey boyayla boyamak (bu, sürücüsüz bir arabanın başka bir şeride geçmesine neden olabilir)" açıkladı. "Çalışmamız kusurlu ölçümlere karşı belgelenebilir derecede sağlam olan derin bir RL algoritması sunuyor. En önemli yenilik, bugün yapıldığı gibi, ölçümlerine körü körüne güvenmek yerine, algoritmamızın şöyle düşünmesidir: yapılabilecek tüm ölçümleri yaparak en kötü durumu dikkate alarak karar verir. sonuç."
Başka bir gösterimde, simüle edilmiş bir sürüş bağlamında algoritmanın, sensörleri aracının çarpışmasını isteyen bir düşman tarafından saldırıya uğradığında bile çarpışmaları önleyebildiğini gösterdiler. "Güçlü derin öğrenme algoritmalarının bu yeni kategorisi, gelecek vaat eden yapay zekayı getirmek için gerekli olacak. teknikleri gerçek dünyaya aktarıyoruz" dedi Everett.
Hala yapılacak daha fazla iş var
Bu çalışma için henüz erken ve yapılması gereken daha çok şey var. Bunun bazı senaryolarda yapay zekanın bozulmasına neden olabileceği potansiyel bir sorun da var. Ajanın çok ihtiyatlı davranması, dolayısıyla verimliliğinin azalmasına neden olur. Bununla birlikte, ileriye dönük derin etkileri olabilecek değerli bir araştırmadır.
"Sinir ağının görevinin, düşmanca örneklerin [belirli türlerine] karşı korumaya odaklanan [başka araştırma projeleri de var] Bir görüntüyü sınıflandırdığınızda ya doğru ya da yanlış olur ve hikaye burada biter" dedi Everett, klasik kaplumbağa-tüfeğe karşı mücadele hakkında soru sorulduğunda sorun. "Çalışmamız bu fikirlerin bazılarına dayanıyor ancak aracının harekete geçmesi gerektiği ve başarılı olursa bir miktar ödül alacağı takviyeli öğrenmeye odaklanıyor. Dolayısıyla, 'Bunun bir kaplumbağa olduğunu söylersem, bu kararın gelecekteki sonuçları nelerdir?' gibi uzun vadeli bir soruya bakıyoruz ve algoritmamızın gerçekten yardımcı olabileceği yer burasıdır. Algoritmamız kaplumbağa ya da tüfek seçmenin gelecekteki en kötü sonuçlarını düşünecektir. A.I., önemli güvenlik sorunlarının çözümüne yönelik önemli bir adım olabilir. acentelerin kararları uzun vadelidir etki."
Araştırmayı anlatan bir makale elektronik ön baskı deposu arXiv'de okunabilir.
Editörlerin Önerileri
- Analog yapay zeka mı? Çılgınca gelebilir ama gelecek olabilir
- Trend analizi yapan bir yapay zekanın yaptığı şey şu: teknolojideki bir sonraki büyük şey olacağını düşünüyor
- Kaliforniya'da elektrik kesintisi sorunu var. Dev akışlı piller çözüm olabilir mi?
- Algoritmik mimari: A.I.'ye izin vermeli miyiz? Bizim için bina mı tasarlıyorsunuz?
- Duygu algılayan yapay zeka burada ve bir sonraki iş görüşmenizde olabilir