Il proprietario di Facebook Meta ha in programma di introdurre chatbot con personalità distinte nella sua app di social media. Il lancio potrebbe arrivare già questo settembre e rappresenterebbe una sfida per rivali del genere ChatGPT, ma si teme che possano esserci serie implicazioni per la privacy degli utenti.
Contenuti
- Preoccupazioni relative alla privacy
- Un grosso rischio
L'idea viene dal Financial Times, che riporta che la mossa è un tentativo di aumentare il coinvolgimento con Facebook utenti. Il nuovo strumento potrebbe farlo fornendo nuove funzionalità di ricerca o consigliando contenuti, il tutto attraverso discussioni simili a quelle umane.
Secondo fonti citate dal Financial Times, i chatbot assumeranno diverse personalità, compreso “uno che emula Abraham Lincoln e un altro che consiglia sulle opzioni di viaggio nello stile di a surfista.”
Imparentato
- Apple lavora segretamente da anni a un rivale di ChatGPT
- Gli hacker utilizzano l'intelligenza artificiale per creare malware feroci, afferma l'FBI
- Ecco perché le persone pensano che GPT-4 potrebbe diventare più stupido nel tempo
Non sarebbe la prima volta che vediamo i chatbot assumere la propria personalità o conversare nello stile di personaggi famosi. IL Carattere.ai chatbot, ad esempio, può adottare dozzine di personalità diverse, comprese quelle di celebrità e personaggi storici.
Video consigliati
Preoccupazioni relative alla privacy
Nonostante la promessa che i chatbot di Meta potrebbero mostrare, sono stati anche sollevati timori sulla quantità di dati che probabilmente raccoglieranno, soprattutto considerando che Facebook ha un record abissale a tutelare la privacy degli utenti.
Ravit Dotan, un consulente e ricercatore di etica dell'IA, è stato citato dal Financial Times dicendo: "Una volta che gli utenti interagiscono con un chatbot, espone davvero molti più dati all'azienda, in modo che l'azienda possa fare tutto ciò che vuole con quello dati."
Ciò non solo aumenta la prospettiva di violazioni della privacy di vasta portata, ma consente la possibilità di "manipolazione e spinta" degli utenti, ha aggiunto Dotan.
Un grosso rischio
Altri chatbot come ChatGPT e Bing Chat hanno avuto un storia di "allucinazioni", o momenti in cui condividono informazioni errate o addirittura disinformazione. Il potenziale danno causato dalla disinformazione e dai pregiudizi potrebbe essere molto più elevato su Facebook, che ha quasi quattro miliardi di utenti, rispetto ai chatbot rivali.
I precedenti tentativi di Meta con i chatbot sono andati male, con BlenderBot 2 e BlenderBot 3 dell'azienda che si sono rapidamente trasformati in contenuti fuorvianti e incitamento all'odio. Ciò potrebbe non dare agli utenti molte speranze per l'ultimo sforzo di Meta.
Con l'avvicinarsi di settembre, potremmo non avere molto tempo per vedere se Facebook è in grado di superarli ostacoli, o se avremo un altro lancio crivellato di allucinazioni simile a quelli subiti altrove nel industria. Qualunque cosa accada, sarà interessante da guardare.
Raccomandazioni della redazione
- ChatGPT: le ultime notizie, controversie e suggerimenti che devi conoscere
- Secondo quanto riferito, il rivale ChatGPT di Apple è "significativamente indietro rispetto ai concorrenti"
- Anche OpenAI ha rinunciato a cercare di rilevare il plagio di ChatGPT
- GPT-4: come utilizzare il chatbot AI che fa vergognare ChatGPT
- Cos'è un prompt DAN per ChatGPT?
Aggiorna il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, recensioni divertenti sui prodotti, editoriali penetranti e anticipazioni uniche.