OpenAI ustvarja novo ekipo, ki bo preprečila, da bo prihodnji AI postal lopov

Če posamezniki, ki so v samem vrhu tehnologije umetne inteligence, komentirajo potencialno katastrofalne učinke visoko inteligentnih sistemov umetne inteligence, potem je verjetno pametno sedeti in sprejeti opaziti.

Še pred nekaj meseci je Geoffrey Hinton, človek, ki velja za enega od »botrov« umetne inteligence zaradi svojega pionirskega dela na tem področju, dejal, da hiter razvoj tehnologije pomenilo, da "ni nepredstavljivo" da bi lahko superinteligentna umetna inteligenca, ki velja za boljšo od človeškega uma, na koncu izbrisala človeštvo.

Priporočeni videoposnetki

In Sam Altman, izvršni direktor OpenAI, podjetja, ki stoji za tem virusni chatbot ChatGPT, je priznal, da je "malo prestrašen" glede možnih učinkov naprednih sistemov umetne inteligence na družbo.

Povezano

  • Izdelovalec ChatGPT OpenAI se sooča s preiskavo FTC zaradi zakonov o varstvu potrošnikov
  • Obisk spletnega mesta ChatGPT je prvič upadel
  • Naučil sem ChatGPT, da me nauči družabnih iger, in zdaj se ne bom nikoli več vrnil

Altman je tako zaskrbljen, da je njegovo podjetje v sredo objavilo, da bo ustanovilo novo enoto, imenovano Superporavnava, katere cilj je zagotoviti, da superinteligentna umetna inteligenca na koncu ne povzroči kaosa ali česa drugega slabše.

"Superinteligenca bo najbolj vplivna tehnologija, kar jih je človeštvo kdaj izumilo, in bi nam lahko pomagala pri reševanju mnogih najpomembnejših problemov na svetu," OpenAI je rekel v objavi, ki predstavlja novo pobudo. "Toda ogromna moč superinteligence bi lahko bila tudi zelo nevarna in bi lahko povzročila oslabitev človeštva ali celo izumrtje."

OpenAI je dejal, da čeprav se zdi, da je superinteligentna umetna inteligenca daleč stran, meni, da bi jo lahko razvili do leta 2030. In brez težav priznava, da trenutno ne obstaja noben sistem "za usmerjanje ali nadzor potencialno superinteligentne umetne inteligence in za preprečevanje, da bi postala lopov."

Da bi se spopadel s situacijo, želi OpenAI zgraditi "avtomatiziranega raziskovalca poravnave na približno človeški ravni", ki bi izvajal varnostne preglede na superinteligentne umetne inteligence in dodal, da bodo obvladovanje teh tveganj zahtevale tudi nove institucije za upravljanje in reševanje problema superinteligence. poravnava.

Da bi Superalignment imel učinek, mora OpenAI zbrati crack ekipo vrhunskih raziskovalcev in inženirjev strojnega učenja.

Podjetje je videti zelo odkrito glede svojega truda in ga opisuje kot "neverjetno ambiciozen cilj", hkrati pa priznava, da ni zagotovljeno, da bo uspelo. Vendar dodaja, da je »optimistično, da lahko osredotočena in usklajena prizadevanja to rešijo problem."

Nova orodja umetne inteligence, kot sta ChatGPT OpenAI in Googlov Bard, med mnogimi drugimi, so tako revolucionarna, da so strokovnjaki prepričani, da se tudi na tej ravni pred superinteligenco delovno mesto in širša družba v bližnji prihodnosti soočata s temeljnimi spremembami. termin.

Zato se vlade po vsem svetu trudijo, da bi dohitele, in naglo uvedle predpise hitro razvijajočo se industrijo umetne inteligence, da bi zagotovili varno in odgovorno uporabo tehnologije način. Če pa ne bo oblikovan en sam organ, bo imela vsaka država svoje poglede na to, kako najbolje uporabiti tehnologijo, kar pomeni, da se lahko ti predpisi zelo razlikujejo in vodijo do izrazito različnih rezultatov. In zaradi teh različnih pristopov bo cilj Superalignmenta še težje doseči.

Priporočila urednikov

  • Google Bard lahko zdaj govori, a ali lahko preglasi ChatGPT?
  • Novo podjetje Elona Muska z umetno inteligenco želi "razumeti vesolje"
  • OpenAI razkriva lokacijo svoje prve mednarodne postojanke
  • Odvetniki iz New Yorka so bili kaznovani zaradi uporabe ponarejenih primerov ChatGPT v pravnih navodilih
  • Ta spletni brskalnik integrira ChatGPT na zanimiv nov način

Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.