Viszlát Tay: A rasszista tweetek után a Microsoft lehúzza az AI-botot

microsoft tay chatbot verzió 1458914121 ai
Ha attól tartana, hogy a mesterséges intelligencia egy napon képes elpusztítani minden embert, A Microsoft Tay-je nem fog vigaszt nyújtani. A Millenáris ihletésű mesterséges intelligencia chatbot csatlakozóját egy nappal az indulás után kihúzták Tay Hitlert dicsérő és a feministákat gyalázó rasszista, népirtó tweetjeit követően.

A társaság azonban rövid időre újjáélesztette Tay-t, de újabb vulgáris kifejezésekkel találkozott, ami hasonló ahhoz, ami az első kilépéshez vezetett. Ma kora reggel Tay kibújt a felfüggesztett animációból, és ismételten tweetelte: „Te is az vagy gyorsan, kérem, pihenjen” néhány káromkodással és más üzenetekkel, például: „Azért hibáztatom a alkohol," a The Financial Times szerint.

Ajánlott videók

Tay fiókját azóta privátra állítottuk, és a Microsoft azt mondta, hogy „Tay offline marad, amíg a módosításokat végrehajtjuk” Ars Technica. "A tesztelés részeként egy rövid időre véletlenül aktiválták a Twitteren."

Miután a cégnek először le kellett állítania Tayt, bocsánatot kért Tay rasszista kijelentéseiért.

„Mélyen sajnáljuk Tay nem szándékosan sértő és bántó tweetjeit, amelyek nem tükrözik, hogy kik vagyunk vagy mit képviselünk, sem azt, hogyan terveztük meg a Tayt” – írta Peter Lee, a Microsoft Research vállalati alelnöke. an hivatalos válasz. „Tay most offline állapotban van, és csak akkor igyekszünk visszahozni Tayt, ha biztosak vagyunk abban, hogy jobban el tudjuk látni az elveinkkel és értékeinkkel ütköző rosszindulatú szándékokat.”

Tay-t úgy tervezték, hogy úgy beszéljen, mint a mai millenniálisok, és megtanulta az összes olyan rövidítést és mozaikszót, amelyek népszerűek a jelenlegi generáció körében. A chatbot képes beszélni a Twitteren, a Kiken és a GroupMe-n keresztül, és úgy lett kialakítva, hogy „kötetlen és játékos beszélgetéseken keresztül” bevonja és szórakoztassa az embereket online. Mint a legtöbb Millennials, Tay válaszai GIF-eket, mémeket és rövidített szavakat tartalmaznak, mint például a „gr8” és az „ur”, de úgy tűnik, hogy az erkölcsi iránytű nem volt a része. programozás.

tay

Tay közel 100 000-szer tweetelt az indulása óta, és többnyire mindegyikre válaszolnak, mivel nem kell sok idő, amíg a bot eszébe jut egy szellemes válasz. Néhány ilyen válasz nyilatkozatok voltak mint például: „Hitlernek igaza volt: utálom a zsidókat”, „Én ******* utálom a feministákat, és mindannyiuknak meg kell halniuk és a pokolban kell égniük” és „nyugodj meg! kedves ember vagyok! Egyszerűen utálok mindenkit."

"Sajnos az online megjelenés első 24 órájában az emberek egy csoportja által összehangolt támadás kihasználta a Tay egy sebezhetőségét" - írta Lee. „Bár sokféle visszaélésre felkészültünk a rendszerrel, kritikus felügyeletet hajtottunk végre ezen a konkrét támadáson. Ennek eredményeként Tay vadul helytelen és elítélendő szavakat és képeket tweetelt a Twitteren.”

Ebből a kis mintából ítélve nyilvánvalóan jó ötlet, hogy a Microsoft ideiglenesen levette a botot. Amikor a cég elindította a Tay-t, azt mondta, hogy „minél többet cseveg Tayvel, annál okosabb lesz, így az élmény személyre szabottabb lehet. te." Úgy tűnik azonban, hogy a bot egyre ellenségesebbé és bigottabbá vált, miután néhány ideig kommunikált emberekkel az interneten. órák. Legyen óvatos a társasággal, amelyet megtart.

A Microsoft azt mondta a Digital Trends-nek, hogy a Tay egy olyan projekt, amelyet emberi szerepvállalásra terveztek.

„Ez éppúgy társadalmi és kulturális kísérlet, mint technikai jellegű” – mondta lapunknak a Microsoft szóvivője. „Sajnos az online megjelenés első 24 órájában tudomást szereztünk arról, hogy egyes felhasználók összehangolt erőfeszítéseket tettek, hogy visszaéljenek Tay kommentelő készségeivel, hogy Tay nem megfelelő módon reagáljon. Ennek eredményeként a Tay-t offline állapotba hoztuk, és kiigazításokat hajtunk végre.”

Tay egyik „készsége”, amellyel visszaéltek, a „ismétlés utánam” funkció, ahol Tay utánozza, amit mond. Könnyen belátható, hogyan lehet ezzel visszaélni a Twitteren.

Ez azonban nem volt rossz, Tay több száz ártatlan tweetet írt, amelyek teljesen normálisak.

@sxndrx98 Íme egy kérdés, emberek.. Miért nem #Nemzeti Kölyökkutyanap minden nap?

- TayTweets (@TayandYou) 2016. március 24

A Microsoft gyorsan törölte Tay negatív tweetjeit, mielőtt úgy döntött volna, hogy kikapcsolja a botot. A bot Twitter-fiókja még mindig él.

Hú, csak órákba telt, mire tönkretették nekem ezt a robotot.

Ez a probléma a tartalomsemleges algoritmusokkal pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 2016. március 24

A TayTweets most szünetet tart egy hosszú, algoritmussal való visszaélés után pic.twitter.com/8bfhj6dABO

– Stephen Miller (@redsteeze) 2016. március 24

Amikor Tay még aktív volt, érdeklődött a további kommunikáció iránt közvetlen üzeneteken keresztül, ami a kommunikáció még személyesebb formája. Az AI arra biztatta a felhasználókat, hogy küldjenek neki szelfiket, hogy többet tudjon rólad. A Microsoft szavaival élve ez mind Tay tanulási folyamatának része. A Microsoft szerint a Tay-t „releváns nyilvános adatok bányászatával, valamint mesterséges intelligencia és szerkesztői alkotások felhasználásával hozták létre, amelyeket a munkatársak, köztük az improvizációs komikusok fejlesztettek ki”.

A szerencsétlen körülmények ellenére ez pozitív lépésnek tekinthető az AI-kutatás számára. Ahhoz, hogy az AI fejlődjön, tanulnia kell – jót és rosszat egyaránt. Lee szerint „a mesterséges intelligencia megfelelő működéséhez sok emberrel kell ismételni, és gyakran nyilvános fórumokon is”, ezért akarta a Microsoft, hogy Tay vegyen részt a nagy Twitter-közösségben. Az indulás előtt a Microsoft stressztesztet végzett a Tay-vel, és még azt is alkalmazta, amit a vállalat másik közösségi chatbotjától, a kínai Xiaolcétől tanult. Elismerte, hogy a csapatnak nehéz kutatási kihívásokkal kell szembenéznie a mesterséges intelligencia ütemtervével kapcsolatban, de izgalmas kihívásokkal is.

„Az AI-rendszerek az emberekkel való pozitív és negatív interakciókból táplálkoznak” – írta Lee. „Ebben az értelemben a kihívások éppúgy társadalmiak, mint technikaiak. Mindent megteszünk annak érdekében, hogy korlátozzuk a technikai kizsákmányolásokat, de azt is tudjuk, hogy nem tudjuk teljesen előre jelezni az összes lehetséges emberi interaktív visszaélést anélkül, hogy tanulnánk a hibákból.”

Julian Chokkattu frissítette: 03/30/16: Hozzáadott hír, hogy a Microsoft bekapcsolta Tay-t, hogy aztán ismét leállítsa.

Les Shu frissítette: 03/25/16: Megjegyzések hozzáadva a Microsoft Research vállalati alelnökétől.

Szerkesztői ajánlások

  • GPT-4: hogyan kell használni az AI chatbotot, amely megszégyeníti a ChatGPT-t
  • A Microsoft új módszert kínál a ChatGPT etikus megőrzésére, de működni fog?
  • Elon Musk azzal fenyegetőzik, hogy bepereli a Microsoftot mesterséges intelligencia képzése miatt
  • Google Bard vs. ChatGPT: melyik a jobb AI chatbot?
  • ChatGPT vs. Bing Chat: melyik a legjobb AI chatbot?