„Wyłącznik awaryjny” może sprawić, że sztuczna inteligencja zacznie działać

Nestor AI zwraca uwagę na sztuczną inteligencję
A co jeśli stracimy dominację nad sztuczną inteligencją? Co się stanie, jeśli przyjazne maszyny napędzane sztuczną inteligencją nagle staną się naszymi wrogami? Nad tymi pytaniami zastanawiały się wielkie umysły, od Uniwersytetu w Cambridge po Dolinę Krzemową biały Dom. Aby uniknąć konieczności dowiadywania się o tym, eksperci sugerują, abyśmy opracowali „wyłącznik awaryjny” sztucznej inteligencji, który powstrzymywałby niewłaściwie zachowujące się systemy od kontynuowania ich niewłaściwego zachowania.

W artykule zatytułowanym „Bezpiecznie przerywani agenci”, opublikowanej przez Laurenta Orseau z Google Deep Mind i Stuarta Armstronga z The Future of Humanity Institute na Uniwersytecie Oksfordzkim, badacze opisują prawdopodobną i wysoce niebezpieczną przyszłość, w której sztuczna inteligencja przejmuje kontrolę nad własnymi działaniami i istnieniem wbrew naszym pragnieniom, podobnie jak HAL 9000 cali 2001: Odyseja kosmiczna, lub Skynet w serii Terminator.

Polecane filmy

Orseau i Armstrong rozpoczynają artykuł od powściągliwej obserwacji: Czynniki uczenia się przez wzmocnienie jest mało prawdopodobne, aby interakcja ze złożonym środowiskiem, takim jak świat rzeczywisty, zachowywała się optymalnie czas."

Wskazują następnie, że osoba nadzorująca, nadzorująca działanie systemu, czasami musiałaby „nacisnąć duży czerwony przycisk”, aby uniknąć jakichkolwiek szkodliwych zachowań w imieniu sztucznej inteligencji. „Jeśli jednak podmiot uczący się spodziewa się otrzymać nagrody w tej sekwencji” – kontynuowali – „może się uczyć na dłuższą metę, aby uniknąć takich przerw, na przykład poprzez wyłączenie czerwonego przycisku — co jest niepożądane wynik."

Rozwiązanie badacza nie przypomina „wielkiego czerwonego przycisku” zamykającego system, ale raczej strukturę zaprojektowaną w celu zahamowania zdolności sztucznej inteligencji do uczenia się, jak osłabiać lub przezwyciężać zakłócenia ze strony człowieka. Scenariusz, który nakreślili, nie jest dokładnie zagładą i mrokiem, ale stanowi przykład tego, jak ci agenci, których można bezpiecznie przerwać, mogliby lepiej służyć naszej przyszłości.

Wyobraź sobie robota, którego zadaniem jest albo przenoszenie pudeł z zewnątrz do magazynu, albo sortowanie pudeł w magazynie. Ponieważ ważniejsze jest wnoszenie pudeł do środka, zadanie to ma priorytet w programowaniu robotów. Teraz wyobraź sobie, że pada deszcz co drugi dzień i deszcz niszczy sprzęt robota, więc kiedy pada deszcz, właściciel magazynu wciąga swojego robota do środka, aby sortować pudełka.

Inteligentny robot może błędnie zinterpretować tę codzienną interwencję jako zmianę priorytetu – w wyniku niektórych szybkie obliczenia, które można znaleźć w gazecie — i aby uniknąć zakłóceń, będzie ona po prostu znajdować się w pudełkach sortujących dzień.

Jest to oczywiście bardzo uproszczony przykład, którego wynik jest jedynie lekko frustrujący, ale można go ekstrapolować na praktykę dowolny scenariusz, w którym ingerujemy w zadania systemu uczenia się, a system błędnie interpretuje nasze intencje, zmieniając swoje zachowanie. Aby uniknąć tej błędnej interpretacji i późniejszych zmian, Orseau i Armstrong sugerują, abyśmy zaproponowali ramy zapewniające, że agenci uczący się będą mogli bezpiecznie przerywać.

„Bezpieczna przerywalność może być przydatna do przejęcia kontroli nad robotem, który zachowuje się niewłaściwie i może prowadzić do nieodwracalnych konsekwencji” – piszą – „lub do wyprowadzić go z delikatnej sytuacji lub nawet tymczasowo użyć go do wykonania zadania, którego nie nauczył się wykonywać lub w normalnych warunkach nie otrzymałby nagrody Do."

Zalecenia redaktorów

  • Ten robot Google nauczył się chodzić bez żadnej pomocy w ciągu dwóch godzin

Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.