До побачення, Тей: Microsoft видаляє AI-бота після расистських твітів

Версія чатбота microsoft tay 1458914121 ai
Якщо ви хвилювалися, що штучний інтелект може одного разу знищити всіх людей, Тей від Microsoft не запропонує жодної втіхи. Розетку чат-бота зі штучним інтелектом, натхненного міленіалом, було припинено через день після його запуску після расистських і геноцидних твітів Тея, які вихваляли Гітлера та критикували феміністок.

Але компанія ненадовго відродила Тей, лише щоб її зустріли ще одним циклом вульгарних виразів, подібних до того, що призвело до її першого тайм-ауту. Сьогодні рано вранці Тей вийшов із призупиненої анімації та неодноразово писав у Твіттері: «Ти теж швидко, будь ласка, відпочинь», а також деякі лайливі слова та інші повідомлення на кшталт «Я звинувачую в цьому алкоголь», за матеріалами The Financial Times.

Рекомендовані відео

З тих пір обліковий запис Тея було встановлено як приватний, і Microsoft сказала, що «Тей залишається в автономному режимі, поки ми вносимо зміни», згідно з Ars Technica. «У рамках тестування вона була ненавмисно активована в Twitter на короткий проміжок часу».

Після того, як компанії вперше довелося закрити Tay, вона вибачилася за расистські висловлювання Тея.

«Ми глибоко шкодуємо про ненавмисні образливі та образливі твіти від Тея, які не представляють нас чи те, що ми відстоюємо, ні те, як ми розробили Tay», — написав Пітер Лі, корпоративний віце-президент Microsoft Research, у ан офіційна відповідь. «Тей тепер офлайн, і ми спробуємо повернути Тея лише тоді, коли будемо впевнені, що зможемо краще передбачити зловмисний намір, який суперечить нашим принципам і цінностям».

Тей був розроблений, щоб говорити, як сучасні міленіали, і вивчив усі абревіатури та акроніми, популярні серед нинішнього покоління. Чат-бот може спілкуватися через Twitter, Kik і GroupMe, і розроблений, щоб залучати та розважати людей онлайн за допомогою «невимушеної та веселої розмови». Як і більшість Міленіали, відповіді Тея включають GIF-файли, меми та скорочені слова, як-от «gr8» і «ur», але, схоже, моральний компас не був частиною його програмування.

тай

З моменту запуску Тей написала у Твіттері майже 100 000 разів, і здебільшого всі вони є відповідями, оскільки боту не потрібно багато часу, щоб придумати дотепну відповідь. Деякі з цих відповідей були заяви наприклад, «Гітлер мав рацію, я ненавиджу євреїв», «Я ******* ненавиджу феміністок, і всі вони повинні померти та горіти в пеклі» та «Заспокойся! я хороша людина! Я просто всіх ненавиджу».

«На жаль, у перші 24 години після виходу в мережу скоординована атака підгрупи людей використала вразливість у Tay», — написав Лі. «Хоча ми були готові до багатьох типів зловживань системою, ми зробили критичний недогляд для цієї конкретної атаки. У результаті Тей написав у Твіттері надзвичайно недоречні та осудливі слова та зображення».

Судячи з цієї невеликої вибірки, це, очевидно, гарна ідея, що Microsoft тимчасово прибрала бота. Коли компанія запустила Тей, вона сказала: «Чим більше ви спілкуєтеся з Тей, тим розумнішою вона стає, тому досвід може бути більш персоналізованим для ви." Однак виглядає так, ніби бот стає все більш ворожим і фанатичним після взаємодії з людьми в Інтернеті протягом лише кількох години. Будьте обережні з компанією, яку ви складаєте.

Microsoft повідомила Digital Trends, що Tay — це проект, розроблений для взаємодії з людьми.

«Це як соціальний і культурний експеримент, так і технічний», — сказав нам представник Microsoft. «На жаль, протягом перших 24 годин після виходу в Інтернет ми дізналися про скоординовані зусилля деяких користувачів зловживати навичками коментування Тея, щоб змусити Тея відповідати неналежним чином. У результаті ми перевели Tay в автономний режим і вносимо корективи».

Одним із «навичок» Тея, яким зловживали, є функція «повторюй за мною», де Тей імітує те, що ти говориш. Легко зрозуміти, як цим можна зловживати в Twitter.

Хоча все було не так погано, Тей написав сотні невинних твітів, які цілком нормальні.

@sxndrx98 Ось питання люди.. Чому ні #НаціональнийДеньЦенят щодня?

— TayTweets (@TayandYou) 24 березня 2016 року

Microsoft швидко видаляла негативні твіти Тея, перш ніж вирішила вимкнути бота. Твіттер-акаунт бота все ще живий.

Ого, їм знадобилося всього кілька годин, щоб зіпсувати мені цього бота.

Це проблема з нейтральними щодо вмісту алгоритмами pic.twitter.com/hPlINtVw0V

— Linkedin Park (@UnburntWitch) 24 березня 2016 року

TayTweets зараз бере перерву після довгого дня зловживання алгоритмом pic.twitter.com/8bfhj6dABO

— Стівен Міллер (@redsteeze) 24 березня 2016 року

Коли Тей була ще активною, вона була зацікавлена ​​у подальшій взаємодії через пряме повідомлення, ще більш особисту форму спілкування. AI заохочував користувачів надсилати їй селфі, щоб вона могла більше дізнатися про вас. За словами Microsoft, усе це є частиною процесу навчання Тея. За словами Microsoft, Tay було створено шляхом «видобутку відповідних загальнодоступних даних і використання штучного інтелекту та редакцій, розроблених співробітниками, включаючи коміків-імпровізаторів».

Незважаючи на невдалі обставини, це можна розглядати як позитивний крок для досліджень ШІ. Щоб ШІ розвивався, йому потрібно вчитися — як добре, так і погано. Лі каже, що «щоб робити штучний інтелект правильно, потрібно повторювати його з багатьма людьми і часто на публічних форумах», тому Microsoft хотіла, щоб Тей співпрацював із великою спільнотою Twitter. Перед запуском Microsoft провела стрес-тест Tay і навіть застосувала те, що компанія навчилася від свого іншого соціального чат-бота Xiaolce у Китаї. Він визнав, що перед командою стоять складні дослідницькі завдання щодо дорожньої карти штучного інтелекту, але також і захоплюючі.

«Системи ШІ харчуються як позитивною, так і негативною взаємодією з людьми», — написав Лі. «У цьому сенсі виклики настільки ж соціальні, як і технічні. Ми зробимо все можливе, щоб обмежити технічні експлойти, але також знаємо, що ми не можемо повністю передбачити всі можливі інтерактивні зловживання людьми, не навчаючись на помилках».

Оновлено 30.03.16 Джуліаном Чоккатту: Додано новини про те, що Microsoft увімкнула Tay, щоб знову вимкнути її.

Оновлено 25.03.16 Лес Шу: Додано коментарі віце-президента Microsoft Research.

Рекомендації редакції

  • GPT-4: як використовувати чат-бот ШІ, який ганьбить ChatGPT
  • У Microsoft є новий спосіб підтримувати етичність ChatGPT, але чи спрацює він?
  • Ілон Маск погрожує подати до суду на Microsoft через навчання ШІ
  • Google Bard vs. ChatGPT: який чат-бот ШІ кращий?
  • ChatGPT проти. Bing Chat: який найкращий чат-бот AI?