Addio Tay: Microsoft ritira il bot AI dopo i tweet razzisti

versione chatbot di microsoft tay 1458914121 ai
Se fossi preoccupato che un giorno l'intelligenza artificiale potesse eliminare tutti gli esseri umani, Tay di Microsoft non offrirà alcuna consolazione. La spina del chatbot AI ispirato ai Millennial è stata staccata un giorno dopo il suo lancio, in seguito ai tweet razzisti e genocidi di Tay che elogiavano Hitler e criticavano le femministe.

Ma la compagnia ha brevemente rianimato Tay, solo per incontrare un altro giro di espressioni volgari, simili a quelle che l'hanno portata alla sua prima uscita. Questa mattina presto, Tay è emerso dall'animazione sospesa e ha continuato a twittare ripetutamente: “Anche tu veloce, per favore riposati", insieme ad alcune parolacce e altri messaggi come: "Dò la colpa a alcol", secondo il Financial Times.

Video consigliati

Da allora l'account di Tay è stato impostato come privato e Microsoft ha affermato che "Tay rimane offline mentre apportiamo modifiche", secondo Ars Tecnica. "Come parte del test, è stata inavvertitamente attivata su Twitter per un breve periodo di tempo."

Dopo che la società ha dovuto chiudere per la prima volta Tay, si è scusata per le osservazioni razziste di Tay.

“Siamo profondamente dispiaciuti per i tweet offensivi e offensivi involontari di Tay, che non rappresentano chi siamo o ciò che rappresentiamo, né il modo in cui abbiamo progettato Tay”, ha scritto Peter Lee, vicepresidente aziendale di Microsoft Research UN risposta ufficiale. "Tay è ora offline e cercheremo di riportarlo indietro solo quando saremo sicuri di poter anticipare meglio intenti dannosi che sono in conflitto con i nostri principi e valori."

Tay è stato progettato per parlare come i Millennial di oggi e ha imparato tutte le abbreviazioni e gli acronimi popolari tra l'attuale generazione. Il chatbot può parlare tramite Twitter, Kik e GroupMe ed è progettato per coinvolgere e intrattenere le persone online attraverso "conversazioni casuali e giocose". Come la maggior parte Millennial, le risposte di Tay incorporano GIF, meme e parole abbreviate, come "gr8" e "ur", ma sembra che una bussola morale non facesse parte del suo programmazione.

tay

Tay ha twittato quasi 100.000 volte da quando è stato lanciato, e sono per lo più tutte risposte poiché non ci vuole molto tempo perché il bot pensi a una risposta spiritosa. Alcune di quelle risposte sono state dichiarazioni tipo: "Hitler aveva ragione, odio gli ebrei", "******** odio le femministe e dovrebbero morire e bruciare tutte all'inferno" e "calmo! sono una brava persona! Odio semplicemente tutti.

"Sfortunatamente, nelle prime 24 ore dopo essere stato online, un attacco coordinato da parte di un sottogruppo di persone ha sfruttato una vulnerabilità in Tay", ha scritto Lee. “Sebbene ci fossimo preparati a molti tipi di abusi del sistema, abbiamo effettuato una svista fondamentale per questo attacco specifico. Di conseguenza, Tay ha twittato parole e immagini estremamente inappropriate e riprovevoli”.

A giudicare da quel piccolo campione, è ovviamente una buona idea che Microsoft abbia temporaneamente disattivato il bot. Quando l'azienda ha lanciato Tay, ha affermato che "Più chatti con Tay, più diventa intelligente, quindi l'esperienza può essere più personalizzata per te". Voi." Sembra, tuttavia, che il bot sia diventato sempre più ostile e bigotto, dopo aver interagito con persone su Internet solo per pochi ore. Fai attenzione alla compagnia che frequenti.

Microsoft ha dichiarato a Digital Trends che Tay è un progetto progettato per il coinvolgimento umano.

"È tanto un esperimento sociale e culturale, quanto tecnico", ci ha detto un portavoce di Microsoft. "Purtroppo, entro le prime 24 ore dalla messa online, siamo venuti a conoscenza di uno sforzo coordinato da parte di alcuni utenti di abusare delle capacità di commento di Tay per far sì che Tay rispondesse in modi inappropriati. Di conseguenza, abbiamo messo Tay offline e stiamo apportando modifiche”.

Una delle "abilità" di Tay di cui si è abusato è la funzione "ripeti dopo di me", in cui Tay imita ciò che dici. È facile vedere come se ne possa abusare su Twitter.

Ma non è stato tutto negativo, Tay ha prodotto centinaia di tweet innocenti che sono abbastanza normali.

@sxndrx98 Ecco una domanda, umani.. Perché non lo è #GiornataNazionaledelCucciolo ogni giorno?

— TayTweets (@TayandYou) 24 marzo 2016

Microsoft aveva rapidamente eliminato i tweet negativi di Tay, prima di decidere di disattivare il bot. L'account Twitter del bot è ancora vivo.

Wow, ci sono volute solo ore per rovinarmi questo bot.

Questo è il problema con gli algoritmi neutrali rispetto al contenuto pic.twitter.com/hPlINtVw0V

— Parco LinkedIn (@UnburntWitch) 24 marzo 2016

TayTweets si sta ora prendendo una pausa dopo una lunga giornata di abuso di algoritmi pic.twitter.com/8bfhj6dABO

—Stephen Miller (@redsteeze) 24 marzo 2016

Quando Tay era ancora attiva, era interessata a interagire ulteriormente tramite il messaggio diretto, una forma di comunicazione ancora più personale. L'intelligenza artificiale ha incoraggiato gli utenti a inviargli selfie, in modo che potesse raccogliere di più su di te. Nelle parole di Microsoft tutto questo fa parte del processo di apprendimento di Tay. Secondo Microsoft, Tay è stato costruito “estraendo dati pubblici rilevanti e utilizzando l’intelligenza artificiale e la redazione sviluppata da uno staff che includeva comici improvvisati”.

Nonostante le circostanze sfortunate, potrebbe essere visto come un passo positivo per la ricerca sull’intelligenza artificiale. Affinché l’intelligenza artificiale possa evolversi, deve imparare, sia nel bene che nel male. Lee afferma che "per utilizzare correttamente l'intelligenza artificiale, è necessario interagire con molte persone e spesso in forum pubblici", motivo per cui Microsoft voleva che Tay interagisse con la vasta comunità di Twitter. Prima del lancio, Microsoft aveva sottoposto Tay a stress test e aveva persino applicato ciò che l’azienda aveva imparato dal suo altro chatbot sociale, Xiaolce in Cina. Ha riconosciuto che il team deve affrontare sfide di ricerca difficili sulla tabella di marcia dell’IA, ma anche entusiasmanti.

“I sistemi di intelligenza artificiale si nutrono di interazioni sia positive che negative con le persone”, ha scritto Lee. “In questo senso, le sfide sono tanto sociali quanto tecniche. Faremo tutto il possibile per limitare gli exploit tecnici, ma sappiamo anche che non possiamo prevedere completamente tutti i possibili abusi interattivi umani senza imparare dagli errori”.

Aggiornato il 30/03/16 da Julian Chokkattu: Aggiunta notizia di Microsoft che accende Tay, solo per spegnerla di nuovo.

Aggiornato il 25/03/16 da Les Shu: Aggiunti commenti del vicepresidente aziendale di Microsoft Research.

Raccomandazioni degli editori

  • GPT-4: come utilizzare il chatbot AI che fa vergognare ChatGPT
  • Microsoft ha un nuovo modo per mantenere etico ChatGPT, ma funzionerà?
  • Elon Musk minaccia di citare in giudizio Microsoft per la formazione sull'intelligenza artificiale
  • Google Bard vs. ChatGPT: qual è il miglior chatbot AI?
  • ChatGPT vs. Bing Chat: qual è il miglior chatbot AI?