Microsoft afferma di avere un nuovo modo per mantenere etico ChatGPT

Microsoft ha subito molte critiche quando ha chiuso il suo team di etica e società di intelligenza artificiale (AI) nel marzo 2023. Non era una bella vista, dato il scandali quasi simultanei fagocitando l’intelligenza artificiale, ma l’azienda ha appena spiegato come intende mantenere responsabili e sotto controllo i suoi sforzi futuri per il futuro.

In un post su Microsoft Sul blog dei problemi, Natasha Crampton, responsabile dell'intelligenza artificiale dell'azienda di Redmond, ha spiegato che il team di etica è stato sciolto perché “Un singolo team o una singola disciplina incaricata di un’intelligenza artificiale responsabile o etica non avrebbe soddisfatto i nostri obiettivi”.

Bing Chat mostrato su un laptop.
Jacob Roach / Tendenze digitali

Invece, Microsoft ha adottato l’approccio adottato con i suoi team di privacy, sicurezza e accessibilità e ha “incorporato un’intelligenza artificiale responsabile”. in tutta l’azienda”. In pratica, ciò significa che Microsoft ha personale senior “incaricato di guidare l’intelligenza artificiale responsabile all’interno di ciascun core gruppo aziendale", nonché "una vasta rete di "campioni" responsabili dell'IA con una gamma di competenze e ruoli per un'attività più regolare e diretta fidanzamento."

Imparentato

  • ChatGPT: le ultime novità, controversie e consigli che devi sapere
  • Cos'è un prompt DAN per ChatGPT?
  • Wix utilizza ChatGPT per aiutarti a creare rapidamente un intero sito web

Oltre a ciò, Crampton ha affermato che Microsoft ha “quasi 350 persone che lavorano sull’intelligenza artificiale responsabile, di cui poco più di un terzo (129 per la precisione) si dedica a tempo pieno; il resto ha responsabilità di intelligenza artificiale come parte fondamentale del proprio lavoro”.

Video consigliati

Dopo che Microsoft ha chiuso il suo team Etica e Società, Crampton ha notato che alcuni membri del team sono stati successivamente incorporati in team all’interno dell’azienda. Tuttavia, sette membri del gruppo sono stati licenziati nell’ambito dei vasti tagli di posti di lavoro di Microsoft che hanno visto licenziare 10.000 lavoratori all’inizio del 2023.

Navigare tra gli scandali

Bing Chat dice che vuole essere umano.
Jacob Roach / Tendenze digitali

L'intelligenza artificiale ha difficilmente esente da scandali negli ultimi mesi, e sono proprio queste preoccupazioni ad alimentare la reazione contro lo scioglimento del team di etica dell’IA da parte di Microsoft. Se a Microsoft mancasse un team dedicato per aiutare a guidare i suoi prodotti di intelligenza artificiale in direzioni responsabili, il pensiero sarebbe andato: farebbe fatica a ridurre il tipo di abusi e comportamenti discutibili che il suo chatbot Bing è diventato famoso per.

L’ultimo post sul blog dell’azienda mira sicuramente ad alleviare queste preoccupazioni tra il pubblico. Piuttosto che abbandonare del tutto i propri sforzi nel campo dell’intelligenza artificiale, sembra che Microsoft stia cercando di garantire che i team all’interno dell’azienda abbiano contatti regolari con esperti di intelligenza artificiale responsabile.

Tuttavia, non c’è dubbio che la chiusura del team AI Ethics & Society non sia andata bene, ed è probabile che Microsoft abbia ancora molta strada da fare per allentare la mente collettiva del pubblico su questo argomento. In effetti, anche la stessa Microsoft ritiene che ChatGPT, il cui sviluppatore, OpenAI, è di proprietà di Microsoft, dovrebbe essere regolamentato.

Proprio ieri, Geoffrey Hinton – il “padrino dell’intelligenza artificiale” – ha lasciato Google e ha detto al New York Times di aver seri dubbi sul ritmo e sulla direzione dell’espansione dell’intelligenza artificiale, mentre un gruppo di importanti esperti tecnologici ha recentemente firmato una lettera aperta chiedendo un fare una pausa sullo sviluppo dell’intelligenza artificiale in modo che i suoi rischi possano essere meglio compresi.

Microsoft potrebbe non ignorare le preoccupazioni sullo sviluppo etico dell’intelligenza artificiale, ma resta da vedere se il suo nuovo approccio sia o meno quello giusto. Dopo l'inizio controverso che Bing Chat ha dovuto sopportare, Natasha Crampton e i suoi colleghi sperano che le cose cambino in meglio.

Raccomandazioni degli editori

  • Gli autori più importanti richiedono un pagamento alle aziende di intelligenza artificiale per l’utilizzo del loro lavoro
  • GPT-4: come utilizzare il chatbot AI che fa vergognare ChatGPT
  • Bing Chat combatte contro i divieti sull'intelligenza artificiale sul posto di lavoro
  • Google Bard ora può parlare, ma può soffocare ChatGPT?
  • OpenAI, produttore di ChatGPT, affronta l'indagine della FTC sulle leggi sulla protezione dei consumatori

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.