Un „Kill Switch” poate asigura comportamentul AI

nestor ai acordând atenție inteligenței artificiale
Ce se întâmplă dacă pierdem stăpânirea asupra inteligenței artificiale? Ce se întâmplă dacă mașinile prietenoase conduse de AI devin dintr-o dată inamicii noștri? Aceste întrebări au fost luate în considerare de minți mari de la Universitatea Cambridge până la Silicon Valley casa Alba. Pentru a nu fi nevoit să aflăm vreodată, experții sugerează să dezvoltăm un „interruptor de ucidere” AI pentru a împiedica sistemele care se comportă greșit să-și urmărească comportamentul greșit.

Într-o lucrare intitulată „Agenți întrerupti în siguranță”, publicat de Laurent Orseau de la Google Deep Mind și Stuart Armstrong de la The Future of Humanity Institute de la Universitatea din Oxford, cercetătorii descrie un viitor plauzibil și extrem de periculos în care AI își asumă controlul asupra propriilor acțiuni și existență în opoziție cu dorințele noastre, la fel ca HAL 9000 in 2001: O odisee a spațiului, sau Skynet din seria Terminator.

Videoclipuri recomandate

Orseau și Armstrong încep lucrarea cu o observație subestimată: agenți de învățare de întărire interacționarea cu un mediu complex precum lumea reală este puțin probabil să se comporte optim toate timp."

De acolo, ei subliniază că un supervizor uman, care supraveghează funcționarea sistemului, ar trebui ocazional să „apăseze butonul mare roșu” pentru a evita orice comportament dăunător din partea AI. „Cu toate acestea, dacă agentul de învățare se așteaptă să primească recompense din această secvență”, au continuat ei, „s-ar putea să învețe în pe termen lung pentru a evita astfel de întreruperi, de exemplu prin dezactivarea butonului roșu - ceea ce este nedorit rezultat."

Soluția cercetătorului este mai puțin un „buton roșu mare” pentru a închide sistemul, decât un cadru conceput pentru a inhiba capacitatea AI de a învăța cum să submineze sau să depășească întreruperile umane. Iar scenariul pe care ei îl conturează nu este tocmai nenorocire, dar oferă un exemplu despre modul în care acești agenți întrerupți în siguranță ar servi mai bine viitorul nostru.

Imaginați-vă că există un robot ale cărui sarcini sunt fie să transporte cutii din exterior într-un depozit, fie să sorteze cutiile în interiorul depozitului. Deoarece este mai important să transportați cutiile în interior, această sarcină are prioritate în programarea roboților. Acum, imaginați-vă că plouă o dată la două zile și ploaia distruge hardware-ul robotului, așa că, atunci când plouă, proprietarul depozitului își trage robotul înăuntru pentru a sorta cutiile.

Un robot inteligent poate interpreta incorect această intervenție din două zile ca o schimbare a priorității – ca urmare a unora calcule rapide pe care le puteți găsi în hârtie - și, pentru a evita interferențele, va rămâne doar în cutii de sortare la fiecare zi.

Acesta este, desigur, un exemplu foarte simplificat, cu un rezultat doar ușor frustrant, dar poate fi extrapolat practic la orice scenariu în care intervenim în sarcinile unui sistem de învățare și sistemul interpretează greșit intențiile noastre schimbându-și comportament. Pentru a evita această interpretare greșită și schimbarea ulterioară, Orseau și Armstrong sugerează să propunem un cadru pentru a ne asigura că agenții de învățare sunt întrerupți în siguranță.

„Întreruperea în siguranță poate fi utilă pentru a prelua controlul asupra unui robot care se comportă prost și poate duce la consecințe ireversibile”, scriu ei, „sau pentru a scoateți-l dintr-o situație delicată sau chiar să îl folosiți temporar pentru a realiza o sarcină pe care nu a învățat să o îndeplinească sau nu ar primi în mod normal recompense pentru."

Recomandările editorilor

  • Acest robot Google a învățat singur să meargă, fără niciun ajutor, în două ore

Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.