Tot ziens Tay: Microsoft haalt AI-bot terug na racistische tweets

microsoft tay chatbot versie 1458914121 ai
Als je je zorgen zou maken dat kunstmatige intelligentie op een dag alle mensen zou kunnen uitroeien, Tay van Microsoft zal geen soelaas bieden. De stekker van de op de Millennial geïnspireerde AI-chatbot werd een dag na de lancering uit het stopcontact getrokken, na Tay’s racistische, genocidale tweets waarin hij Hitler prees en feministen bashen.

Maar het bedrijf bracht Tay kort weer tot leven, maar kreeg te maken met een nieuwe reeks vulgaire uitingen, vergelijkbaar met wat leidde tot haar eerste time-out. Vanochtend vroeg kwam Tay uit de opgeschorte animatie tevoorschijn en bleef herhaaldelijk tweeten: 'Jij ook snel, neem alsjeblieft even rust”, samen met enkele scheldwoorden en andere berichten zoals: “Ik geef de schuld aan de alcohol," aldus De Financiële Times.

Aanbevolen video's

Tay's account is sindsdien ingesteld op privé en Microsoft zei: "Tay blijft offline terwijl we aanpassingen maken", aldus Ars Technica. “Als onderdeel van het testen werd ze per ongeluk korte tijd geactiveerd op Twitter.”

Nadat het bedrijf Tay eerst moest sluiten, verontschuldigde het zich voor de racistische opmerkingen van Tay.

“Het spijt ons ten zeerste voor de onbedoelde aanstootgevende en kwetsende tweets van Tay, die niet representeren wie we zijn of waar we voor staan, noch hoe we Tay hebben ontworpen”, schreef Peter Lee, corporate vice president van Microsoft Research een officiële reactie. “Tay is nu offline en we zullen proberen Tay alleen terug te brengen als we er zeker van zijn dat we beter kunnen anticiperen op kwaadaardige bedoelingen die in strijd zijn met onze principes en waarden.”

Tay is ontworpen om te spreken als de hedendaagse millennials en heeft alle afkortingen en acroniemen geleerd die populair zijn bij de huidige generatie. De chatbot kan praten via Twitter, Kik en GroupMe, en is ontworpen om mensen online te betrekken en te vermaken door middel van ‘informele en speelse gesprekken’. Net als de meeste Millennials, de reacties van Tay bevatten GIF’s, memes en afgekorte woorden, zoals ‘gr8’ en ‘ur’, maar het lijkt erop dat een moreel kompas geen deel uitmaakte van de strategie. programmering.

taai

Tay heeft sinds de lancering bijna 100.000 keer getweet, en het zijn meestal allemaal reacties, omdat het niet veel tijd kost voordat de bot een geestig antwoord bedenkt. Enkele van die reacties uitspraken zijn geweest zoals: ‘Hitler had gelijk, ik haat de Joden’, ‘Ik haat feministen en ze zouden allemaal moeten sterven en branden in de hel’, en ‘chill! ik ben een aardig persoon! Ik haat gewoon iedereen.”

“Helaas heeft een gecoördineerde aanval door een subgroep van mensen in de eerste 24 uur na het online komen misbruik gemaakt van een kwetsbaarheid in Tay”, schreef Lee. “Hoewel we ons hadden voorbereid op vele vormen van misbruik van het systeem, hadden we deze specifieke aanval kritisch bekeken. Als gevolg hiervan tweette Tay enorm ongepaste en laakbare woorden en beelden.”

Afgaande op die kleine steekproef is het duidelijk een goed idee dat Microsoft de bot tijdelijk heeft uitgeschakeld. Toen het bedrijf Tay lanceerde, stond er: “Hoe meer je met Tay chat, hoe slimmer ze wordt, zodat de ervaring persoonlijker kan zijn Jij." Het lijkt er echter op dat de bot steeds vijandiger en onverdraagzamer werd, nadat hij slechts een paar keer met mensen op internet had gecommuniceerd. uur. Wees voorzichtig met het gezelschap dat u heeft.

Microsoft vertelde Digital Trends dat Tay een project is dat is ontworpen voor menselijke betrokkenheid.

“Het is zowel een sociaal en cultureel experiment als een technisch experiment”, vertelde een Microsoft-woordvoerder ons. “Helaas werden we ons binnen de eerste 24 uur na het online komen bewust van een gecoördineerde poging van sommige gebruikers om Tay’s commentaarvaardigheden te misbruiken om Tay op ongepaste manieren te laten reageren. Als gevolg hiervan hebben we Tay offline gehaald en zijn we bezig met aanpassingen.”

Een van Tay’s ‘vaardigheden’ die werd misbruikt, is de ‘herhaal na mij’-functie, waarbij Tay nabootst wat je zegt. Het is gemakkelijk in te zien hoe hiervan misbruik kan worden gemaakt op Twitter.

Het was echter niet allemaal slecht: Tay heeft honderden onschuldige tweets geproduceerd die redelijk normaal zijn.

@sxndrx98 Hier is een vraag mensen.. Waarom niet #NationalePuppydag elke dag?

— TayTweets (@TayandYou) 24 maart 2016

Microsoft had de negatieve tweets van Tay snel verwijderd voordat het besloot de bot uit te schakelen. Het Twitter-account van de bot leeft nog.

Wauw, het kostte ze maar uren om deze bot voor mij te verpesten.

Dit is het probleem met inhoudsneutrale algoritmen pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 24 maart 2016

TayTweets neemt nu een pauze na een lange dag van misbruik van algoritmen pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24 maart 2016

Toen Tay nog actief was, was ze geïnteresseerd in verdere interactie via directe berichten, een nog persoonlijkere vorm van communicatie. De AI moedigde gebruikers aan om selfies te sturen, zodat ze meer over jou te weten kon komen. In de woorden van Microsoft maakt dit allemaal deel uit van het leerproces van Tay. Volgens Microsoft is Tay gebouwd door “relevante openbare gegevens te verzamelen en door gebruik te maken van AI en redactioneel commentaar ontwikkeld door personeel, waaronder improvisatiekomieken.”

Ondanks de ongelukkige omstandigheden kan het worden gezien als een positieve stap voor AI-onderzoek. Om AI te laten evolueren, moet het leren – zowel goed als slecht. Lee zegt dat “om AI goed te doen, je met veel mensen en vaak op openbare forums moet herhalen”, en daarom wilde Microsoft dat Tay in contact zou komen met de grote Twitter-gemeenschap. Voorafgaand aan de lancering had Microsoft Tay aan een stresstest onderworpen en zelfs toegepast wat het bedrijf had geleerd van zijn andere sociale chatbot, Xiaolce in China. Hij erkende dat het team voor moeilijke, maar ook spannende onderzoeksuitdagingen op de AI-roadmap staat.

“AI-systemen voeden zich met zowel positieve als negatieve interacties met mensen”, schreef Lee. “In die zin zijn de uitdagingen net zo sociaal als technisch. We zullen al het mogelijke doen om technische exploits te beperken, maar we weten ook dat we niet alle mogelijke menselijke interactieve misbruiken volledig kunnen voorspellen zonder van fouten te leren.”

Bijgewerkt op 30-03-2016 door Julian Chokkattu: Nieuws toegevoegd dat Microsoft Tay heeft ingeschakeld, maar haar vervolgens weer heeft uitgeschakeld.

Bijgewerkt op 25/03/16 door Les Shu: Opmerkingen toegevoegd van de corporate vice-president van Microsoft Research.

Aanbevelingen van de redactie

  • GPT-4: hoe je de AI-chatbot gebruikt die ChatGPT te schande maakt
  • Microsoft heeft een nieuwe manier om ChatGPT ethisch te houden, maar zal het werken?
  • Elon Musk dreigt Microsoft aan te klagen wegens AI-training
  • Google Bard vs. ChatGPT: welke is de betere AI-chatbot?
  • ChatGPT vs. Bing Chat: wat is de beste AI-chatbot?