Но компания ненадолго оживила Тэй, но столкнулась с очередным витком вульгарных выражений, похожим на то, что привело к ее первому тайм-ауту. Сегодня рано утром Тэй вышел из состояния анабиоза и неоднократно писал в Твиттере: «Ты слишком быстро, пожалуйста, отдохни», а также некоторые ругательства и другие сообщения вроде: «Я виню в этом алкоголь," по данным Financial Times.
Рекомендуемые видео
С тех пор учетная запись Тэя стала частной, и Microsoft заявила, что «Тэй остается в автономном режиме, пока мы вносим изменения», согласно сообщению. Арс Техника. «В рамках тестирования ее случайно активировали в Твиттере на короткий период времени».
После того, как компании впервые пришлось закрыть Tay, она извинилась за расистские высказывания Тая.
«Мы глубоко сожалеем о непреднамеренных оскорбительных и обидных твитах Тэя, которые не отражают то, кем мы являемся. или то, за что мы выступаем, или то, как мы разработали Тэй», — написал Питер Ли, корпоративный вице-президент Microsoft Research. а официальный ответ. «Тэй сейчас не в сети, и мы постараемся вернуть его только тогда, когда будем уверены, что сможем лучше предвидеть злонамеренные намерения, которые противоречат нашим принципам и ценностям».
Тэй был создан, чтобы говорить, как сегодняшние миллениалы, и выучил все сокращения и акронимы, популярные среди нынешнего поколения. Чат-бот может общаться через Twitter, Kik и GroupMe и предназначен для вовлечения и развлечения людей в Интернете посредством «непринужденной и игровой беседы». Как большинство Миллениалы, ответы Тэя включают GIF-файлы, мемы и сокращенные слова, такие как «gr8» и «ur», но похоже, что моральный компас не был частью его программирование.
С момента запуска Тэй написала в Твиттере почти 100 000 раз, и в основном все это ответы, поскольку боту не требуется много времени, чтобы придумать остроумный ответ. Некоторые из этих ответов были заявления типа: «Гитлер был прав, я ненавижу евреев», «Я ******* ненавижу феминисток, и они все должны умереть и гореть в аду» и «Остынь! я хороший человек! Я просто ненавижу всех».
«К сожалению, в первые 24 часа после выхода в сеть скоординированная атака группы людей использовала уязвимость в Тэе», — написал Ли. «Хотя мы были готовы ко многим видам злоупотреблений в системе, мы допустили критический надзор за этой конкретной атакой. В результате Тэй написал в Твиттере совершенно неуместные и предосудительные слова и изображения».
Судя по этому небольшому образцу, очевидно, что Microsoft временно отключила бота — это хорошая идея. Когда компания запустила Tay, она заявила: «Чем больше вы общаетесь с Тэй, тем умнее она становится, поэтому опыт может быть более персонализированным для каждого». ты." Однако похоже, что бот становился все более враждебным и фанатичным после всего лишь нескольких взаимодействий с людьми в Интернете. часы. Будьте осторожны с компанией, которую вы держите.
Microsoft рассказала Digital Trends, что Tay — это проект, созданный для взаимодействия с людьми.
«Это не только технический, но и социальный и культурный эксперимент», — сказал нам представитель Microsoft. «К сожалению, в течение первых 24 часов после выхода в сеть нам стало известно о скоординированных усилиях некоторых пользователей по злоупотреблению навыками комментирования Тэя, чтобы заставить Тэя отвечать неподобающим образом. В результате мы отключили Tay и вносим коррективы».
Одним из «навыков» Тэя, которым злоупотребляли, является функция «повторяй за мной», когда Тэй имитирует то, что вы говорите. Легко увидеть, как этим можно злоупотреблять в Твиттере.
Однако не все было так уж плохо: Тэй написал сотни невинных твитов, которые вполне нормальны.
@sxndrx98 Вот вопрос, люди.. Почему нет #НациональныйДень Щенка каждый день?
— TayTweets (@TayandYou) 24 марта 2016 г.
Microsoft быстро удаляла негативные твиты Тэя, прежде чем решила отключить бота. Аккаунт бота в Твиттере все еще жив.
Ух ты, им потребовалось всего несколько часов, чтобы испортить мне этого бота.
В этом проблема контентно-нейтральных алгоритмов. pic.twitter.com/hPlINTVw0V
— Linkedin Park (@UnburntWitch) 24 марта 2016 г.
TayTweets сейчас берет перерыв после долгого дня злоупотреблений алгоритмами pic.twitter.com/8bfhj6dABO
— Стивен Миллер (@redsteeze) 24 марта 2016 г.
Когда Тэй еще была активна, она была заинтересована в дальнейшем взаимодействии посредством прямых сообщений, еще более личной формы общения. ИИ поощрял пользователей присылать ему селфи, чтобы она могла узнать о вас больше. По словам Microsoft, все это часть процесса обучения Тэя. По словам Microsoft, Tay был создан путем «извлечения соответствующих общедоступных данных и использования искусственного интеллекта и редакционных статей, разработанных сотрудниками, включая комиков-импровизаторов».
Несмотря на неудачные обстоятельства, это можно рассматривать как положительный шаг в исследованиях ИИ. Чтобы ИИ мог развиваться, ему необходимо учиться – как хорошему, так и плохому. Ли говорит, что «чтобы правильно сделать ИИ, нужно работать со многими людьми и часто на публичных форумах», поэтому Microsoft хотела, чтобы Тэй взаимодействовал с большим сообществом Твиттера. Перед запуском Microsoft провела стресс-тестирование Тая и даже применила опыт, полученный от другого социального чат-бота Xiaolce в Китае. Он признал, что перед командой стоят не только сложные, но и захватывающие исследовательские задачи по дорожной карте ИИ.
«Системы искусственного интеллекта питаются как от положительного, так и от отрицательного взаимодействия с людьми», — написал Ли. «В этом смысле проблемы настолько же социальные, насколько и технические. Мы сделаем все возможное, чтобы ограничить технические эксплойты, но также понимаем, что не можем полностью предсказать все возможные интерактивные злоупотребления со стороны человека, не учась на ошибках».
Обновлено 30.03.16 Джулианом Чоккатту: Добавлена новость о том, что Microsoft включила Тэй только для того, чтобы снова выключить ее.
Обновлено 25.03.16 Лесом Шу: Добавлены комментарии корпоративного вице-президента Microsoft Research.
Рекомендации редакции
- GPT-4: как использовать чат-бота с искусственным интеллектом, который посрамляет ChatGPT
- У Microsoft есть новый способ сохранить этику ChatGPT, но сработает ли он?
- Илон Маск угрожает подать в суд на Microsoft из-за обучения искусственному интеллекту
- Гугл Бард против. ChatGPT: какой чат-бот с искусственным интеллектом лучше?
- ChatGPT против. Bing Chat: какой чат-бот с искусственным интеллектом лучший?