Paperissa, jonka otsikko on "Turvallisesti keskeytettävät agentit” julkaisivat Laurent Orseau Google Deep Mindistä ja Stuart Armstrong The Future of Humanity Institutesta Oxfordin yliopistosta. kuvaile uskottavaa ja erittäin vaarallista tulevaisuutta, jossa tekoäly ottaa haltuunsa omia toimiaan ja olemassaoloaan toiveidemme vastaisesti, aivan kuten HAL 9000 tuumaa 2001: Avaruusodysseia, tai Skynet Terminator-sarjassa.
Suositellut videot
Orseau ja Armstrong aloittavat artikkelin hillityllä huomiolla: Vahvistavat oppimisagentit vuorovaikutuksessa todellisen maailman kaltaisen monimutkaisen ympäristön kanssa ei todennäköisesti toimi optimaalisesti aika."
Sieltä he huomauttavat, että ihmisen valvojan, joka valvoo järjestelmän toimintaa, olisi toisinaan "painattava isoa punaista painiketta" välttääkseen haitallisen käytöksen tekoälyn puolesta. "Jos oppimisagentti kuitenkin odottaa saavansa palkintoja tästä sarjasta", he jatkoivat, "se voi oppia pitkällä aikavälillä tällaisten keskeytysten välttämiseksi, esimerkiksi poistamalla punainen painike käytöstä – mikä ei ole toivottavaa tulokset."
Tutkijan ratkaisu ei ole niinkään "iso punainen painike" järjestelmän sammuttamiseksi kuin se on kehys, joka on suunniteltu estämään tekoälyn kykyä oppia heikentämään tai voittamaan ihmisen häiriöitä. Heidän esittämänsä skenaario ei ole aivan tuho ja synkkä, mutta se tarjoaa esimerkin siitä, kuinka nämä turvallisesti keskeytettävät agentit palvelisivat paremmin tulevaisuuttamme.
Kuvittele, että siellä on robotti, jonka tehtävänä on joko kuljettaa laatikoita ulkopuolelta varastoon tai lajitella laatikoita varaston sisällä. Koska laatikoiden kantaminen sisällä on tärkeämpää, tämä tehtävä on asetettu etusijalle robottien ohjelmoinnissa. Kuvittele nyt, että sataa joka toinen päivä ja sade tuhoaa robotin laitteiston, joten kun sataa, varaston omistaja vetää robottinsa sisään lajittelemaan laatikoita.
Älykäs robotti saattaa väärin tulkita tämän joka toinen päivä tapahtuvan väliintulon tärkeysjärjestyksen muutokseksi – johtuen joistakin nopeat laskelmat, jotka löydät paperista – ja häiriöiden välttämiseksi se vain pysyy lajittelulaatikoissa joka päivä.
Tämä on tietysti erittäin yksinkertaistettu esimerkki, jonka lopputulos on vain lievästi turhauttava, mutta se voidaan ekstrapoloida käytännössä mikä tahansa skenaario, jossa puutumme oppimisjärjestelmän tehtäviin ja järjestelmä tulkitsee tarkoituksemme väärin muuttamalla sitä käyttäytymistä. Väärintulkintojen ja myöhempien muutosten välttämiseksi Orseau ja Armstrong ehdottavat, että ehdotamme puitteita, joilla varmistetaan, että oppimisagentit ovat turvallisesti keskeytettävissä.
"Turvallinen keskeytys voi olla hyödyllistä ottaa hallintaansa väärin käyttäytyvä robotti ja saattaa johtaa peruuttamattomiin seurauksiin", he kirjoittavat, "tai ottaa se pois herkästä tilanteesta tai jopa käyttää sitä väliaikaisesti sellaisen tehtävän suorittamiseen, jota se ei ole oppinut suorittamaan tai jota se ei normaalisti saisi varten.”
Toimittajien suositukset
- Tämä Google-robotti opetti itsensä kävelemään kahdessa tunnissa ilman minkäänlaista apua
Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.