I leader tecnologici chiedono una pausa di sviluppo per GPT-4.5, GPT-5

L'IA generativa si è mossa a una velocità incredibile negli ultimi mesi, con il lancio di vari strumenti e bot come ChatGPT di OpenAI, Google Bardo, e altro ancora. Eppure questo rapido sviluppo sta causando serie preoccupazioni tra i veterani esperti nel campo dell'IA, quindi tanto che oltre 1.000 di loro hanno firmato una lettera aperta che invita gli sviluppatori di intelligenza artificiale a sbattere contro Freni.

La lettera è stata pubblicata sul sito web del Istituto per il futuro della vita, un'organizzazione la cui missione dichiarata è "guidare la tecnologia trasformativa verso il beneficio della vita e lontano da rischi estremi su larga scala". Tra i i firmatari sono diversi eminenti accademici e leader della tecnologia, tra cui il co-fondatore di Apple Steve Wozniak, il CEO di Twitter Elon Musk e il politico Andrew Yang.

Video consigliati

L'articolo chiede a tutte le aziende che lavorano su modelli di intelligenza artificiale più potenti del GPT-4 rilasciato di recente interrompere immediatamente il lavoro per almeno sei mesi. Questa moratoria dovrebbe essere "pubblica e verificabile" e lascerebbe il tempo di "sviluppare e attuare congiuntamente una serie di azioni condivise protocolli di sicurezza per la progettazione e lo sviluppo di IA avanzati che sono rigorosamente verificati e supervisionati da esterni indipendenti esperti”.

Imparentato

  • Il produttore di ChatGPT OpenAI affronta un'indagine FTC sulle leggi sulla protezione dei consumatori
  • La funzione di navigazione Bing di ChatGPT è stata disabilitata a causa di un difetto di accesso al paywall
  • Il rivale ChatGPT di Apple potrebbe scrivere automaticamente il codice per te

La lettera afferma che ciò è necessario perché "i sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l'umanità". Quelli i rischi includono la diffusione della propaganda, la distruzione di posti di lavoro, la potenziale sostituzione e obsolescenza della vita umana e la "perdita di controllo della nostra civiltà”. Gli autori aggiungono che la decisione se andare avanti in questo futuro non dovrebbe essere lasciata a “tecnologia non eletta capi."

AI "per il chiaro vantaggio di tutti"

ChatGPT contro Google su smartphone.

La lettera arriva subito dopo che sono state fatte affermazioni secondo cui GPT-5, la prossima versione della tecnologia che alimenta ChatGPT, potrebbe raggiungere l'intelligenza generale artificiale. Se corretto, ciò significa che sarebbe in grado di comprendere e apprendere qualsiasi cosa un essere umano possa comprendere. Ciò potrebbe renderlo incredibilmente potente in modi che non sono stati ancora completamente esplorati.

Inoltre, la lettera sostiene che la pianificazione e la gestione responsabili dello sviluppo dei sistemi di intelligenza artificiale non stanno avvenendo, "anche se negli ultimi mesi l'IA ha laboratori bloccati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può comprendere, prevedere o utilizzare in modo affidabile controllo."

Invece, la lettera afferma che devono essere creati nuovi sistemi di governance che regoleranno lo sviluppo dell'IA, aiuteranno le persone a distinguere quelli creati dall'IA e contenuti creati dall'uomo, ritenere i laboratori di intelligenza artificiale come OpenAI responsabili di qualsiasi danno che causano, consentire alla società di far fronte all'interruzione dell'IA (soprattutto alla democrazia), e altro ancora.

Gli autori concludono con una nota positiva, affermando che "l'umanità può godere di un futuro fiorente con l'intelligenza artificiale... in cui raccogliamo i frutti, progettare questi sistemi per il chiaro vantaggio di tutti e dare alla società la possibilità di adattarsi”. Colpire la pausa sui sistemi di intelligenza artificiale più potenti di GPT-4 consentirebbe che ciò accada, affermano.

La lettera avrà l'effetto previsto? È difficile da dire. Esistono chiaramente incentivi per OpenAI a continuare a lavorare su modelli avanzati, sia finanziari che reputazionali. Ma con così tanti rischi potenziali - e con una comprensione molto scarsa di essi - gli autori della lettera ritengono chiaramente che quegli incentivi siano troppo pericolosi per essere perseguiti.

Raccomandazioni della redazione

  • Google Bard ora può parlare, ma può soffocare ChatGPT?
  • Il traffico del sito Web ChatGPT è diminuito per la prima volta
  • L'81% pensa che ChatGPT sia un rischio per la sicurezza, rileva il sondaggio
  • Ho insegnato a ChatGPT a insegnarmi i giochi da tavolo e ora non tornerò mai più indietro
  • Gli avvocati di New York sono stati multati per aver utilizzato falsi casi ChatGPT in casi legali

Aggiorna il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, recensioni divertenti sui prodotti, editoriali penetranti e anticipazioni uniche.