Liderzy technologiczni wzywają do wstrzymania prac nad GPT-4.5, GPT-5

Generative AI porusza się z niewiarygodną prędkością w ostatnich miesiącach, wraz z uruchomieniem różnych narzędzi i botów, takich jak ChatGPT OpenAI, Bard Google, i więcej. Jednak ten szybki rozwój powoduje poważne obawy wśród doświadczonych weteranów w dziedzinie sztucznej inteligencji — tak do tego stopnia, że ​​ponad 1000 z nich podpisało list otwarty wzywający programistów AI do zaatakowania hamulce.

Pismo zostało opublikowane na stronie internetowej Urzędu ds Instytut Przyszłości Życia, organizacja, której deklarowaną misją jest „kierowanie przełomowej technologii w kierunku przynoszenia korzyści życiu i unikania ekstremalnych zagrożeń na dużą skalę”. Spośród sygnatariuszami jest kilku wybitnych naukowców i liderów w dziedzinie technologii, w tym współzałożyciel Apple Steve Wozniak, dyrektor generalny Twittera Elon Musk i polityk Andrew Yang.

Polecane filmy

W artykule wezwano wszystkie firmy pracujące nad modelami AI, które są potężniejsze niż te niedawno wydany GPT-4 natychmiastowego wstrzymania pracy na co najmniej sześć miesięcy. To moratorium powinno być „publiczne i weryfikowalne” oraz dawać czas na „wspólne opracowanie i wdrożenie zestawu wspólnych protokoły bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależne podmioty zewnętrzne eksperci”.

Powiązany

  • Twórca ChatGPT OpenAI mierzy się z sondą FTC w sprawie przepisów dotyczących ochrony konsumentów
  • Funkcja przeglądania Bing w ChatGPT została wyłączona z powodu błędu w dostępie do paywalla
  • Rywal Apple ChatGPT może automatycznie napisać dla ciebie kod

W liście napisano, że jest to konieczne, ponieważ „systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości”. Te zagrożenia obejmują rozprzestrzenianie się propagandy, likwidację miejsc pracy, potencjalną wymianę i dezaktualizację ludzkiego życia oraz „utratę kontroli” naszej cywilizacji”. Autorzy dodają, że decyzja o tym, czy iść naprzód w tę przyszłość, nie powinna być pozostawiona „niewybranej technologii przywódcy”.

AI „dla wyraźnej korzyści dla wszystkich”

ChatGPT kontra Google na smartfonach.

List pojawia się tuż po tym, jak pojawiły się twierdzenia, że ​​GPT-5, następna wersja technologii obsługującej ChatGPT, może osiągnąć sztuczną inteligencję ogólną. Jeśli jest poprawny, oznacza to, że byłby w stanie zrozumieć i nauczyć się wszystkiego, co człowiek może zrozumieć. To może uczynić go niesamowicie potężnym w sposób, który nie został jeszcze w pełni zbadany.

Co więcej, w liście stwierdza się, że odpowiedzialne planowanie i zarządzanie związane z rozwojem systemów sztucznej inteligencji nie ma miejsca, „mimo że w ostatnich miesiącach AI laboratoria uwikłane w wymykający się spod kontroli wyścig, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt — nawet ich twórcy — nie jest w stanie zrozumieć, przewidzieć ani wiarygodnie kontrola."

Zamiast tego w liście stwierdza się, że należy stworzyć nowe systemy zarządzania, które będą regulować rozwój sztucznej inteligencji, pomagać ludziom w rozróżnianiu stworzonych przez sztuczną inteligencję i treści stworzone przez człowieka, pociągać laboratoria sztucznej inteligencji, takie jak OpenAI, do odpowiedzialności za wszelkie wyrządzone przez nie szkody, umożliwiać społeczeństwu radzenie sobie z zakłóceniami sztucznej inteligencji (zwłaszcza demokracji), i więcej.

Autorzy kończą pozytywną nutą, twierdząc, że „ludzkość może cieszyć się kwitnącą przyszłością dzięki sztucznej inteligencji… w której czerpiemy korzyści, zaprojektuj te systemy z wyraźną korzyścią dla wszystkich i daj społeczeństwu szansę na przystosowanie się”. Wciśnięcie pauzy w potężniejsze systemy AI niż GPT-4 pozwoliłyby na to, twierdzą.

Czy list odniesie zamierzony skutek? Trudno powiedzieć. Istnieją wyraźne zachęty dla OpenAI do kontynuowania pracy nad zaawansowanymi modelami, zarówno finansowymi, jak i reputacyjnymi. Ale przy tak wielu potencjalnych zagrożeniach – i przy bardzo niewielkim ich zrozumieniu – autorzy listu wyraźnie uważają, że te zachęty są zbyt niebezpieczne, by za nimi podążać.

Zalecenia redaktorów

  • Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
  • Ruch na stronie ChatGPT spadł po raz pierwszy
  • 81% uważa, że ​​ChatGPT stanowi zagrożenie dla bezpieczeństwa, wynika z ankiety
  • Nauczyłem ChatGPT uczyć mnie gier planszowych, a teraz już nigdy nie wrócę
  • Prawnicy z Nowego Jorku ukarani grzywną za używanie fałszywych przypadków ChatGPT w skrócie prawnym

Ulepsz swój styl życiaTrendy cyfrowe pomagają czytelnikom śledzić szybko zmieniający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zapowiedziom.