Microsoft ha ignorato gli avvisi sulle risposte selvagge di Bing Chat

Microsoft Chat di Bing è in una posizione molto migliore rispetto a quando è stato rilasciato a febbraio, ma è difficile trascurare i problemi che il chatbot basato su GPT-4 aveva quando è stato rilasciato. Ci ha detto voleva essere umano, dopotutto, e spesso si rompeva in risposte sconnesse. E secondo un nuovo rapporto, Microsoft è stata avvertita di questo tipo di risposte e ha deciso di rilasciare comunque Bing Chat.

Secondo il giornale di Wall Street, OpenAI, la società dietro ChatGPT e il GPT-4 modello che alimenta Bing Chat, ha avvertito Microsoft dell'integrazione del suo primo modello di intelligenza artificiale in Bing Chat. In particolare, OpenAI ha segnalato risposte "imprecise o bizzarre", che Microsoft sembra aver ignorato.

Bing Chat dice che vuole essere umano.
Jacob Roach / Tendenze digitali

Il rapporto descrive una tensione unica tra OpenAI e Microsoft, che negli ultimi anni hanno stretto una sorta di partnership aperta. I modelli di OpenAI sono basati su hardware Microsoft (incluso migliaia di GPU Nvidia) e Microsoft sfrutta la tecnologia dell'azienda su Bing, Microsoft Office e Windows stesso. All'inizio del 2023, Microsoft ha persino investito $ 10 miliardi in OpenAI, arrivando poco prima di acquistare la società a titolo definitivo.

Imparentato

  • Il produttore di ChatGPT OpenAI affronta un'indagine FTC sulle leggi sulla protezione dei consumatori
  • Il traffico del sito Web ChatGPT è diminuito per la prima volta
  • I migliori chatbot AI da provare: ChatGPT, Bard e altri

Nonostante ciò, il rapporto afferma che i dipendenti Microsoft hanno problemi con l'accesso limitato ai modelli di OpenAI e che erano preoccupati che ChatGPT oscurasse la Bing Chat inondata di intelligenza artificiale. A peggiorare le cose, il Wall Street Journal riporta che OpenAI e Microsoft vendono entrambi la tecnologia di OpenAI, portando a situazioni in cui i fornitori hanno a che fare con i contatti di entrambe le società.

Video consigliati

Il problema più grande, secondo il rapporto, è che Microsoft e OpenAI stanno cercando di fare soldi con un prodotto simile. Con il supporto di Microsoft, ma senza il controllo di OpenAI, lo sviluppatore di ChatGPT è libero di stringere partnership con altre società, alcune delle quali possono competere direttamente con i prodotti Microsoft.

Sulla base di ciò che abbiamo visto, gli avvertimenti segnalati da OpenAI hanno resistito. Poco dopo il rilascio di Bing Chat, Microsoft ha limitato il numero di risposte gli utenti potrebbero ricevere in un'unica sessione. E da allora, Microsoft ha lentamente revocato la restrizione come il Modello GPT-4 in Bing Chat è raffinato. I rapporti suggeriscono che alcuni dipendenti Microsoft fanno spesso riferimento a "Sydney", prendendo in giro i primi giorni di Bing Chat (nome in codice Sydney) e le sue risposte.

Raccomandazioni della redazione

  • Google Bard ora può parlare, ma può soffocare ChatGPT?
  • ChatGPT: le ultime notizie, controversie e suggerimenti che devi conoscere
  • La funzione di navigazione Bing di ChatGPT è stata disabilitata a causa di un difetto di accesso al paywall
  • L'81% pensa che ChatGPT sia un rischio per la sicurezza, rileva il sondaggio
  • Il rivale ChatGPT di Apple potrebbe scrivere automaticamente il codice per te

Aggiorna il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, recensioni divertenti sui prodotti, editoriali penetranti e anticipazioni uniche.