A „Kill Switch” biztosíthatja a mesterséges intelligencia viselkedését

nestor ai odafigyelve mesterséges intelligencia
Mi van, ha elveszítjük uralmunkat a mesterséges intelligencia felett? Mi van, ha a barátságos AI-vezérelt gépek hirtelen ellenségeinkké válnak? Ezeket a kérdéseket nagy elmék fontolgatták a Cambridge-i Egyetemtől a Szilícium-völgyig a fehér Ház. Annak elkerülése érdekében, hogy ezt valaha is meg kelljen találnunk, a szakértők azt javasolják, hogy fejlesszünk ki egy mesterséges intelligencia „kill switch”-et, amely megakadályozza, hogy a rosszul viselkedő rendszerek követhessék helytelen viselkedésüket.

A „Biztonságosan megszakítható ügynökökLaurent Orseau, a Google Deep Mind munkatársa és Stuart Armstrong, az Oxfordi Egyetem The Future of Humanity Institute munkatársa tette közzé, a kutatók írjon le egy valószínű és rendkívül veszélyes jövőt, amelyben a mesterséges intelligencia átveszi az irányítást saját cselekvései és létezése felett, szemben a vágyainkkal, hasonlóan a HAL-hoz 9000 hüvelyk 2001: Űrodüsszeia, vagy a Skynet a Terminátor sorozatban.

Ajánlott videók

Orseau és Armstrong egy visszafogott észrevétellel kezdik a tanulmányt: Tanulási ügynökök megerősítése A való világhoz hasonló összetett környezettel való interakciók valószínűleg nem fognak optimálisan viselkedni idő."

Innen felhívják a figyelmet arra, hogy a rendszer működését felügyelő emberi felügyelőnek időnként meg kell nyomnia a nagy piros gombot, hogy elkerülje a mesterséges intelligencia kártékony viselkedését. „Ha azonban a tanuló ügynök jutalmat vár ettől a sorozattól – folytatták –, akkor tanulhat hosszú távon az ilyen megszakítások elkerülése érdekében, például a piros gomb letiltásával – ami nem kívánatos eredmény."

A kutató megoldása nem egy „nagy piros gomb” a rendszer leállítására, hanem egy olyan keretrendszer, amelyet arra terveztek, hogy megakadályozza a mesterséges intelligencia azon képességét, hogy megtanulják, hogyan ássák alá vagy leküzdjék az emberi megszakításokat. Az általuk felvázolt forgatókönyv pedig nem éppen végzet és komor, de példát mutat arra, hogyan szolgálják jobban a jövőnket ezek a biztonságosan megszakítható ügynökök.

Képzeld el, hogy van egy robot, akinek az a feladata, hogy dobozokat szállítson kívülről a raktárba, vagy a raktáron belül válogatja a dobozokat. Mivel fontosabb a dobozok behordása, ezért a robotok programozásában ez a feladat prioritást élvez. Most képzeljük el, hogy minden második nap esik az eső, és az eső tönkreteszi a robot hardverét, így ha esik, a raktár tulajdonosa berángatja a robotját, hogy szétválogatja a dobozokat.

Előfordulhat, hogy egy intelligens robot helytelenül értelmezi ezt a minden másnapi beavatkozást a prioritás megváltozásaként – néhány gyors számítások, amelyeket a papírban talál – és az interferencia elkerülése érdekében minden alkalommal a válogatódobozokban marad. nap.

Ez természetesen egy nagyon leegyszerűsített példa, csak enyhén frusztráló eredménnyel, de gyakorlatilag extrapolálható minden olyan forgatókönyv, amelyben beavatkozunk egy tanulási rendszer feladataiba, és a rendszer félreértelmezi szándékainkat, megváltoztatva viselkedés. A félreértelmezés és a későbbi változtatások elkerülése érdekében Orseau és Armstrong azt javasolja, hogy javasoljunk egy olyan keretrendszert, amely biztosítja a tanuló ágensek biztonságos megszakítását.

„A biztonságos megszakítás hasznos lehet egy rosszul viselkedő robot feletti irányítás átvételéhez, és visszafordíthatatlan következményekkel járhat” – írják. kiemelni egy kényes helyzetből, vagy akár ideiglenesen felhasználni egy olyan feladat elvégzésére, amelyet nem tanult meg elvégezni, vagy amelyet általában nem kapna meg számára.”

Szerkesztői ajánlások

  • Ez a Google robot két óra alatt megtanult járni, minden segítség nélkül

Frissítse életmódjátA Digital Trends segítségével az olvasók nyomon követhetik a technológia rohanó világát a legfrissebb hírekkel, szórakoztató termékismertetőkkel, éleslátó szerkesztőségekkel és egyedülálló betekintésekkel.