Google Bard – це етичний безлад, кажуть співробітники Google

Google запущено Бард, свого конкурента ChatGPT, незважаючи на внутрішнє занепокоєння, що він був «патологічним брехуном» і дав «жахливі» результати, стверджується в новому звіті. Працівник каже, що ці занепокоєння, очевидно, були проігноровані в шалених спробах наздогнати ChatGPT і відвернути загрозу, яку це може становити Пошуковий бізнес Google.

Одкровення походять від а Звіт Bloomberg який глибоко занурився в Google Bard та питання, порушені працівниками, які працювали над проектом. Це захоплююча розповідь про те, як чат-бот, очевидно, зійшов з колії, і про побоювання, які ці інциденти викликали у стурбованих працівників.

ChatGPT проти Google на смартфонах.

Наприклад, Bloomberg цитує анонімного співробітника, який попросив у Барда інструкцій щодо посадки літака, а потім з жахом побачив, що опис Барда призведе до катастрофи. Інший працівник сказав, що поради Барда з підводного плавання «імовірно призведуть до серйозних травм або смерті».

Пов'язані

  • ChatGPT: останні новини, суперечки та поради, які вам потрібно знати
  • Що таке підказка DAN для ChatGPT?
  • Google Bard тепер може говорити, але чи може він заглушити ChatGPT?

Згідно з даними, ці питання, очевидно, були підняті незадовго до запуску Bard, але Google наполягав на даті запуску, таким було його бажання йти в ногу з шлях, прокладений ChatGPT. Але він зробив це, нехтуючи власними етичними зобов’язаннями, що призвело не лише до небезпечних порад, але й до потенційного поширення дезінформації.

Рекомендовані відео

Поспішаючи на старт

Чат-бот Google Bard AI у веб-браузері, показаний на екрані смартфона Android.
Моджахід Моттакін / Unsplash

У 2021 році Google пообіцяла подвоїти свою команду співробітників, які вивчають етичні наслідки штучного інтелекту (ШІ), і інвестувати більше у визначення потенційної шкоди. Проте ця команда зараз «знесилена та деморалізована», як стверджується у звіті Bloomberg. Гірше того, членам команди було сказано «не заважати і не намагатися знищити будь-який із генеративних інструментів штучного інтелекту, що розробляються», що ставить під сумнів відданість Google етиці штучного інтелекту.

Це можна було побачити в дії безпосередньо перед тим, як Bard запустили. У лютому працівник Google написав у внутрішній групі повідомлення: «Bard гірше, ніж марний: будь ласка, не запускайте», з чимало інших співробітників погодилися. Наступного місяця Джен Геннай, керівник відділу управління штучним інтелектом Google, скасувала оцінку ризиків, згідно з якою Бард міг завдати шкоди та не був готовий до запуску, просуваючись із першим публічним випуском чат-бот.

Звіт Bloomberg малює картину компанії, яка не довіряє етичним вимогам, які, на її думку, можуть стати на шляху прибутковості її власних продуктів. Наприклад, один працівник попросив попрацювати над справедливістю в машинному навчанні, але йому неодноразово відмовляли, аж до того, що це вплинуло на оцінку його ефективності. Менеджери скаржилися, що етичні міркування заважали їхній «справжній роботі», заявив працівник.

Це викликає занепокоєння, особливо тому, що ми вже бачили багато прикладів Неправомірна поведінка чат-бота ШІ який створив образливу, оманливу або відверто неправдиву інформацію. Якщо звіт Bloomberg правильний щодо, здавалося б, ворожого підходу Google до етичних проблем, це може бути лише початком проблем, спричинених ШІ.

Рекомендації редакції

  • Найпопулярніші автори вимагають від фірм штучного інтелекту плату за використання їхніх робіт
  • GPT-4: як використовувати чат-бот ШІ, який ганьбить ChatGPT
  • Wix використовує ChatGPT, щоб допомогти вам швидко створити весь веб-сайт
  • Розробник ChatGPT OpenAI стикається з розслідуванням FTC щодо законів про захист прав споживачів
  • Трафік веб-сайту ChatGPT впав вперше

Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.