En 'Kill Switch' kan sikre, at AI opfører sig

nestor ai være opmærksom på kunstig intelligens
Hvad hvis vi mister herredømmet over kunstig intelligens? Hvad hvis venlige AI-drevne maskiner pludselig bliver vores fjender? Disse spørgsmål er blevet overvejet af store hjerner fra Cambridge University til Silicon Valley til det Hvide Hus. For at undgå nogensinde at skulle finde ud af det, foreslår eksperter, at vi udvikler en AI "kill switch" for at forhindre dårligt opførende systemer i at forfølge deres dårlige opførsel.

I et papir med titlen "Safely Interruptible Agents,” udgivet af Laurent Orseau fra Google Deep Mind og Stuart Armstrong fra The Future of Humanity Institute ved University of Oxford, forskerne beskrive en plausibel og meget farlig fremtid, hvor AI overtager kontrol over sine egne handlinger og eksistens i modsætning til vores ønsker, ligesom HAL 9000 tommer 2001: A Space Odyssey, eller Skynet i Terminator-serien.

Anbefalede videoer

Orseau og Armstrong begynder papiret med en underspillet observation: Reinforcement learning agents interagere med et komplekst miljø som den virkelige verden er usandsynligt at opføre sig optimalt alle tid."

Derfra påpeger de, at en menneskelig supervisor, der fører tilsyn med systemets funktion, lejlighedsvis skal "trykke på den store røde knap" for at undgå skadelig adfærd på vegne af AI. "Men hvis læringsagenten forventer at modtage belønninger fra denne sekvens," fortsatte de, "kan den lære i på lang sigt for at undgå sådanne afbrydelser, for eksempel ved at deaktivere den røde knap - hvilket er uønsket resultat."

Forskerens løsning er mindre en "stor rød knap" til at lukke systemet ned, end det er en ramme designet til at hæmme en AI's evne til at lære at underminere eller overvinde menneskelig afbrydelse. Og scenariet, de skitserer, er ikke ligefrem undergang og dysterhed, men det giver et eksempel på, hvordan disse sikkert afbrydelige agenter bedre ville tjene vores fremtid.

Forestil dig, at der er en robot, hvis opgaver er enten at transportere kasser udefra ind i et lager eller sortere kasser inde på lageret. Da det er vigtigere at bære kasserne indenfor, prioriteres denne opgave i robotternes programmering. Forestil dig nu, at det regner hver anden dag, og regnen ødelægger robottens hardware, så når det regner, trækker lagerejeren sin robot ind for at sortere kasser.

En intelligent robot kan forkert fortolke denne hverdagsintervention som en ændring i prioritet - som følge af nogle hurtige beregninger, som du kan finde i avisen - og for at undgå interferens bliver den bare i sorteringskasser hver dag.

Dette er selvfølgelig et meget forenklet eksempel med et kun mildt frustrerende resultat, men det kan ekstrapoleres til praktisk talt ethvert scenarie, hvor vi griber ind i et læringssystems opgaver, og systemet fejlfortolker vores intentioner ved at ændre dets opførsel. For at undgå denne fejlfortolkning og efterfølgende ændring foreslår Orseau og Armstrong, at vi foreslår en ramme for at sikre, at læringsagenter kan afbrydes sikkert.

"Sikker afbrydelse kan være nyttig til at tage kontrol over en robot, der opfører sig forkert og kan føre til irreversible konsekvenser," skriver de, "eller til tage det ud af en vanskelig situation, eller endda midlertidigt bruge det til at udføre en opgave, det ikke lærte at udføre eller normalt ikke ville modtage belønninger til."

Redaktørernes anbefalinger

  • Denne Google-robot lærte sig selv at gå, uden nogen som helst hjælp, på to timer

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.