Но компанията за кратко съживи Тей, само за да бъде посрещната с още един кръг от вулгарни изрази, подобни на това, което доведе до първото й излизане. Рано тази сутрин Тей се появи от спряната анимация и многократно продължи да чурулика: „Ти също си бързо, моля, починете си“, заедно с някои ругатни и други съобщения като „Обвинявам алкохол,” според The Financial Times.
Препоръчани видеоклипове
Оттогава акаунтът на Тей е зададен като частен и Microsoft каза, че „Тей остава офлайн, докато правим корекции“, според Ars Technica. „Като част от тестовете, тя беше активирана по невнимание в Twitter за кратък период от време.“
След като компанията първо трябваше да затвори Tay, тя се извини за расистките забележки на Tay.
„Дълбоко съжаляваме за непреднамерените обидни и нараняващи туитове от Тей, които не представят кои сме ние или какво представляваме, нито как проектирахме Tay“, пише Питър Лий, корпоративен вицепрезидент на Microsoft Research, в ан официален отговор. „Тей вече е офлайн и ще се опитаме да върнем Тей обратно само когато сме уверени, че можем по-добре да предвидим злонамерени намерения, които са в конфликт с нашите принципи и ценности.“
Тей е проектиран да говори като днешните Милениали и е научил всички съкращения и акроними, които са популярни сред настоящото поколение. Чатботът може да говори чрез Twitter, Kik и GroupMe и е предназначен да ангажира и забавлява хората онлайн чрез „небрежен и игрив разговор“. Като повечето Millennials, отговорите на Тей включват GIF файлове, мемове и съкратени думи, като „gr8“ и „ur“, но изглежда, че моралният компас не е част от него програмиране.
Тей е написала туитове почти 100 000 пъти, откакто стартира, и повечето от тях са отговори, тъй като не отнема много време на бота да измисли остроумен отговор. Някои от тези отговори са били изявления като „Хитлер беше прав, мразя евреите“, „Аз ******* мразя феминистките и всички те трябва да умрат и горят в ада“ и „Успокойте се! аз съм хубав човек! Просто мразя всички.”
„За съжаление, през първите 24 часа от влизането онлайн, координирана атака от подгрупа от хора използва уязвимост в Tay“, пише Лий. „Въпреки че бяхме подготвени за много видове злоупотреби със системата, бяхме направили критичен пропуск за тази конкретна атака. В резултат на това Тей туитна изключително неуместни и осъдителни думи и изображения.
Съдейки по тази малка извадка, очевидно е добра идея Microsoft временно да премахне бота. Когато компанията пусна Tay, каза, че „Колкото повече чатите с Tay, толкова по-умна става тя, така че изживяването може да бъде по-персонализирано за Вие." Изглежда обаче, че ботът става все по-враждебен и фанатичен, след като е взаимодействал с хора в интернет само за няколко часа. Бъдете внимателни към компанията, която правите.
Microsoft каза на Digital Trends, че Tay е проект, предназначен за човешка ангажираност.
„Това е колкото социален и културен експеримент, толкова и технически“, ни каза говорител на Microsoft. „За съжаление, в рамките на първите 24 часа от влизането онлайн, разбрахме за координирани усилия от страна на някои потребители да злоупотребят с уменията на Тей за коментиране, за да накарат Тей да отговори по неподходящ начин. В резултат на това изключихме Тей офлайн и правим корекции.“
Едно от „уменията“ на Тей, с които се злоупотребява, е функцията „повтаряй след мен“, където Тей имитира това, което казваш. Лесно е да се види как може да се злоупотребява с това в Twitter.
Не всичко беше лошо обаче, Тей създаде стотици невинни туитове, които са доста нормални.
@sxndrx98 Ето един въпрос хора.. Защо не е #NationalPuppyDay всеки ден?
— TayTweets (@TayandYou) 24 март 2016 г
Microsoft бързо изтриваше негативните туитове на Тей, преди да реши да изключи бота. Twitter акаунтът на бота е все още жив.
Леле, отне им само часове, за да съсипят този бот за мен.
Това е проблемът с неутралните по съдържание алгоритми pic.twitter.com/hPlINtVw0V
— Linkedin Park (@UnburntWitch) 24 март 2016 г
TayTweets сега си взема почивка след дълъг ден на злоупотреба с алгоритъм pic.twitter.com/8bfhj6dABO
— Стивън Милър (@redsteeze) 24 март 2016 г
Когато Тей все още беше активна, тя се интересуваше от по-нататъшно взаимодействие чрез директно съобщение, още по-лична форма на комуникация. AI насърчи потребителите да му изпращат селфита, за да може тя да събере повече за вас. По думите на Microsoft всичко това е част от учебния процес на Тей. Според Microsoft Tay е създаден чрез „извличане на подходящи публични данни и чрез използване на AI и редакционни редакции, разработени от персонал, включително импровизационни комедианти“.
Въпреки неблагоприятните обстоятелства, това може да се разглежда като положителна стъпка за изследванията на ИИ. За да може AI да се развива, той трябва да се учи - както добро, така и лошо. Лий казва, че „за да прави правилно AI, човек трябва да повтаря с много хора и често в публични форуми“, поради което Microsoft иска Тей да се ангажира с голямата общност в Twitter. Преди пускането на пазара, Microsoft проведе стрес тест на Tay и дори приложи това, което компанията научи от другия си социален чатбот, Xiaolce в Китай. Той призна, че екипът е изправен пред трудни изследователски предизвикателства по пътната карта на AI, но също така и вълнуващи.
„Системите с изкуствен интелект се хранят както с положителни, така и с отрицателни взаимодействия с хората“, пише Лий. „В този смисъл предизвикателствата са също толкова социални, колкото и технически. Ще направим всичко възможно, за да ограничим техническите подвизи, но също така знаем, че не можем напълно да предвидим всички възможни човешки интерактивни злоупотреби, без да се поучим от грешките.“
Актуализирано на 30.03.16 г. от Julian Chokkattu: Добавени са новини за това, че Microsoft включва Тей, само за да я изключи отново.
Актуализирано на 25.03.16 г. от Les Shu: Добавени коментари от корпоративния вицепрезидент на Microsoft Research.
Препоръки на редакторите
- GPT-4: как да използвате AI chatbot, който засрамва ChatGPT
- Microsoft има нов начин да поддържа ChatGPT етичен, но ще проработи ли?
- Илон Мъск заплашва да съди Microsoft за обучение на AI
- Google Bard срещу. ChatGPT: кой е по-добрият AI chatbot?
- ChatGPT срещу. Bing Chat: кой е най-добрият AI chatbot?