Прощай, Тэй: Microsoft удаляет бота с искусственным интеллектом после расистских твитов

Чат-бот Microsoft Tay, версия 1458914121 ai
Если бы вы беспокоились, что искусственный интеллект однажды может уничтожить всех людей, Тэй из Microsoft не принесет никакого утешения. Вдохновленный миллениалами чат-бот с искусственным интеллектом был отключен через день после его запуска после расистских и геноцидных твитов Тэй, восхваляющих Гитлера и критикующих феминисток.

Но компания ненадолго оживила Тэй, но столкнулась с очередным витком вульгарных выражений, похожим на то, что привело к ее первому тайм-ауту. Сегодня рано утром Тэй вышел из состояния анабиоза и неоднократно писал в Твиттере: «Ты слишком быстро, пожалуйста, отдохни», а также некоторые ругательства и другие сообщения вроде: «Я виню в этом алкоголь," по данным Financial Times.

Рекомендуемые видео

С тех пор учетная запись Тэя стала частной, и Microsoft заявила, что «Тэй остается в автономном режиме, пока мы вносим изменения», согласно сообщению. Арс Техника. «В рамках тестирования ее случайно активировали в Твиттере на короткий период времени».

После того, как компании впервые пришлось закрыть Tay, она извинилась за расистские высказывания Тая.

«Мы глубоко сожалеем о непреднамеренных оскорбительных и обидных твитах Тэя, которые не отражают то, кем мы являемся. или то, за что мы выступаем, или то, как мы разработали Тэй», — написал Питер Ли, корпоративный вице-президент Microsoft Research. а официальный ответ. «Тэй сейчас не в сети, и мы постараемся вернуть его только тогда, когда будем уверены, что сможем лучше предвидеть злонамеренные намерения, которые противоречат нашим принципам и ценностям».

Тэй был создан, чтобы говорить, как сегодняшние миллениалы, и выучил все сокращения и акронимы, популярные среди нынешнего поколения. Чат-бот может общаться через Twitter, Kik и GroupMe и предназначен для вовлечения и развлечения людей в Интернете посредством «непринужденной и игровой беседы». Как большинство Миллениалы, ответы Тэя включают GIF-файлы, мемы и сокращенные слова, такие как «gr8» и «ur», но похоже, что моральный компас не был частью его программирование.

Тай

С момента запуска Тэй написала в Твиттере почти 100 000 раз, и в основном все это ответы, поскольку боту не требуется много времени, чтобы придумать остроумный ответ. Некоторые из этих ответов были заявления типа: «Гитлер был прав, я ненавижу евреев», «Я ******* ненавижу феминисток, и они все должны умереть и гореть в аду» и «Остынь! я хороший человек! Я просто ненавижу всех».

«К сожалению, в первые 24 часа после выхода в сеть скоординированная атака группы людей использовала уязвимость в Тэе», — написал Ли. «Хотя мы были готовы ко многим видам злоупотреблений в системе, мы допустили критический надзор за этой конкретной атакой. В результате Тэй написал в Твиттере совершенно неуместные и предосудительные слова и изображения».

Судя по этому небольшому образцу, очевидно, что Microsoft временно отключила бота — это хорошая идея. Когда компания запустила Tay, она заявила: «Чем больше вы общаетесь с Тэй, тем умнее она становится, поэтому опыт может быть более персонализированным для каждого». ты." Однако похоже, что бот становился все более враждебным и фанатичным после всего лишь нескольких взаимодействий с людьми в Интернете. часы. Будьте осторожны с компанией, которую вы держите.

Microsoft рассказала Digital Trends, что Tay — это проект, созданный для взаимодействия с людьми.

«Это не только технический, но и социальный и культурный эксперимент», — сказал нам представитель Microsoft. «К сожалению, в течение первых 24 часов после выхода в сеть нам стало известно о скоординированных усилиях некоторых пользователей по злоупотреблению навыками комментирования Тэя, чтобы заставить Тэя отвечать неподобающим образом. В результате мы отключили Tay и вносим коррективы».

Одним из «навыков» Тэя, которым злоупотребляли, является функция «повторяй за мной», когда Тэй имитирует то, что вы говорите. Легко увидеть, как этим можно злоупотреблять в Твиттере.

Однако не все было так уж плохо: Тэй написал сотни невинных твитов, которые вполне нормальны.

@sxndrx98 Вот вопрос, люди.. Почему нет #НациональныйДень Щенка каждый день?

— TayTweets (@TayandYou) 24 марта 2016 г.

Microsoft быстро удаляла негативные твиты Тэя, прежде чем решила отключить бота. Аккаунт бота в Твиттере все еще жив.

Ух ты, им потребовалось всего несколько часов, чтобы испортить мне этого бота.

В этом проблема контентно-нейтральных алгоритмов. pic.twitter.com/hPlINTVw0V

— Linkedin Park (@UnburntWitch) 24 марта 2016 г.

TayTweets сейчас берет перерыв после долгого дня злоупотреблений алгоритмами pic.twitter.com/8bfhj6dABO

— Стивен Миллер (@redsteeze) 24 марта 2016 г.

Когда Тэй еще была активна, она была заинтересована в дальнейшем взаимодействии посредством прямых сообщений, еще более личной формы общения. ИИ поощрял пользователей присылать ему селфи, чтобы она могла узнать о вас больше. По словам Microsoft, все это часть процесса обучения Тэя. По словам Microsoft, Tay был создан путем «извлечения соответствующих общедоступных данных и использования искусственного интеллекта и редакционных статей, разработанных сотрудниками, включая комиков-импровизаторов».

Несмотря на неудачные обстоятельства, это можно рассматривать как положительный шаг в исследованиях ИИ. Чтобы ИИ мог развиваться, ему необходимо учиться – как хорошему, так и плохому. Ли говорит, что «чтобы правильно сделать ИИ, нужно работать со многими людьми и часто на публичных форумах», поэтому Microsoft хотела, чтобы Тэй взаимодействовал с большим сообществом Твиттера. Перед запуском Microsoft провела стресс-тестирование Тая и даже применила опыт, полученный от другого социального чат-бота Xiaolce в Китае. Он признал, что перед командой стоят не только сложные, но и захватывающие исследовательские задачи по дорожной карте ИИ.

«Системы искусственного интеллекта питаются как от положительного, так и от отрицательного взаимодействия с людьми», — написал Ли. «В этом смысле проблемы настолько же социальные, насколько и технические. Мы сделаем все возможное, чтобы ограничить технические эксплойты, но также понимаем, что не можем полностью предсказать все возможные интерактивные злоупотребления со стороны человека, не учась на ошибках».

Обновлено 30.03.16 Джулианом Чоккатту: Добавлена ​​новость о том, что Microsoft включила Тэй только для того, чтобы снова выключить ее.

Обновлено 25.03.16 Лесом Шу: Добавлены комментарии корпоративного вице-президента Microsoft Research.

Рекомендации редакции

  • GPT-4: как использовать чат-бота с искусственным интеллектом, который посрамляет ChatGPT
  • У Microsoft есть новый способ сохранить этику ChatGPT, но сработает ли он?
  • Илон Маск угрожает подать в суд на Microsoft из-за обучения искусственному интеллекту
  • Гугл Бард против. ChatGPT: какой чат-бот с искусственным интеллектом лучше?
  • ChatGPT против. Bing Chat: какой чат-бот с искусственным интеллектом лучший?