Een ‘Kill Switch’ kan ervoor zorgen dat AI zich gedraagt

nestor ai let op kunstmatige intelligentie
Wat als we de controle over kunstmatige intelligentie verliezen? Wat als vriendelijke AI-aangedreven machines plotseling onze vijanden worden? Deze vragen zijn door grote geesten van de Universiteit van Cambridge tot Silicon Valley overwogen het Witte Huis. Om te voorkomen dat we daar ooit achter hoeven te komen, stellen experts voor om een ​​AI-‘kill switch’ te ontwikkelen om te voorkomen dat systemen die zich misdragen hun wangedrag nastreven.

In een artikel met de titel “Safely Interruptible Agents”, gepubliceerd door Laurent Orseau van Google Deep Mind en Stuart Armstrong van The Future of Humanity Institute aan de Universiteit van Oxford, de onderzoekers een plausibele en zeer gevaarlijke toekomst beschrijven waarin AI de controle over zijn eigen acties en bestaan ​​overneemt, in tegenstelling tot onze verlangens, net zoals HAL 9000 inch 2001: Een ruimte-odyssee, of Skynet in de Terminator-serie.

Aanbevolen video's

Orseau en Armstrong beginnen het artikel met een ingetogen observatie: versterkende leeragenten Het is onwaarschijnlijk dat interactie met een complexe omgeving zoals de echte wereld zich altijd optimaal zal gedragen tijd."

Van daaruit wijzen ze erop dat een menselijke supervisor, die toezicht houdt op de werking van het systeem, af en toe ‘op de grote rode knop moet drukken’ om schadelijk gedrag namens de AI te voorkomen. ‘Als de lerende agent echter beloningen uit deze reeks verwacht,’ vervolgden ze, ‘kan hij leren op de lange termijn dergelijke onderbrekingen te voorkomen, bijvoorbeeld door de rode knop uit te schakelen – wat ongewenst is resultaat."

De oplossing van de onderzoeker is niet zozeer een ‘grote rode knop’ om het systeem uit te schakelen, maar eerder een raamwerk dat is ontworpen om het vermogen van AI te belemmeren om te leren hoe menselijke onderbrekingen kunnen worden ondermijnd of overwonnen. En het scenario dat ze schetsen is niet bepaald kommer en kwel, maar het biedt een voorbeeld van hoe deze veilig onderbreekbare agenten onze toekomst beter zouden kunnen dienen.

Stel je voor dat er een robot is wiens taak het is om dozen van buiten naar een magazijn te dragen of dozen binnen het magazijn te sorteren. Omdat het belangrijker is om de dozen naar binnen te dragen, krijgt deze taak prioriteit in de programmering van de robots. Stel je nu voor dat het om de dag regent en dat de regen de hardware van de robot vernietigt. Als het regent, sleept de eigenaar van het magazijn zijn robot naar binnen om dozen te sorteren.

Een intelligente robot kan deze dagelijkse interventie ten onrechte interpreteren als een verandering in prioriteit – als gevolg van sommigen snelle berekeningen die u in de krant kunt vinden - en om interferentie te voorkomen, blijft het gewoon in sorteerdozen dag.

Dit is natuurlijk een sterk vereenvoudigd voorbeeld met een slechts licht frustrerende uitkomst, maar het kan worden geëxtrapoleerd naar praktisch elk scenario waarin we ingrijpen in de taken van een leersysteem en het systeem onze bedoelingen verkeerd interpreteert door de taken ervan te veranderen gedrag. Om die verkeerde interpretatie en daaropvolgende verandering te voorkomen, stellen Orseau en Armstrong voor dat we een raamwerk voorstellen om ervoor te zorgen dat leeragenten veilig kunnen worden onderbroken.

“Veilige onderbreekbaarheid kan nuttig zijn om de controle over een robot over te nemen die zich misdraagt ​​en tot onomkeerbare gevolgen kan leiden”, schrijven ze, “of om het uit een delicate situatie halen, of zelfs tijdelijk gebruiken om een ​​taak uit te voeren die het niet heeft geleerd uit te voeren of die normaal gesproken geen beloning zou ontvangen voor."

Aanbevelingen van de redactie

  • Deze Google-robot leerde zichzelf binnen twee uur lopen, zonder enige hulp

Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.