Google запустил Бард, его конкурент ChatGPT, несмотря на внутренние опасения, что он был «патологическим лжецом» и давал «неприятные» результаты, говорится в новом отчете. Рабочие говорят, что эти опасения, очевидно, были проигнорированы в отчаянной попытке догнать ChatGPT и предотвратить угрозу, которую это может представлять для Поисковый бизнес Google.
Откровения исходят от Отчет Блумберга это потребовало глубокого погружения в Гугл Бард и вопросы, поднятые сотрудниками, работавшими над проектом. Это поучительный отчет о том, как чат-бот, очевидно, сошел с рельсов, и о том, какие опасения эти инциденты вызвали у обеспокоенных работников.
Например, Bloomberg цитирует анонимного сотрудника, который спросил у Барда инструкции, как посадить самолет, а затем пришел в ужас, увидев, что описание Барда приведет к катастрофе. Другой работник сказал, что советы Барда по подводному плаванию «скорее всего, приведут к серьезной травме или смерти».
Связанный
- ChatGPT: последние новости, противоречия и советы, которые вам нужно знать
- Что такое запрос DAN для ChatGPT?
- Google Bard теперь может говорить, но сможет ли он заглушить ChatGPT?
По данным компании, эти вопросы, по всей видимости, были подняты незадолго до запуска Bard, но Google настаивал на дате запуска, настолько было ее желание идти в ногу с путь, проложенный ChatGPT. Но он сделал это, игнорируя свои собственные этические обязательства, что привело не только к опасным советам, но и к потенциальному распространению дезинформации.
Рекомендуемые видео
Спешим к запуску
В 2021 году Google пообещал удвоить команду сотрудников, изучающих этические последствия искусственного интеллекта (ИИ), и вкладывать больше средств в определение потенциального вреда. Однако сейчас эта команда «бессильна и деморализована», говорится в отчете Bloomberg. Хуже того, членам команды сказали «не мешать и не пытаться уничтожить какой-либо из разрабатываемых инструментов генеративного ИИ», что ставит под сомнение приверженность Google этике ИИ.
Это было замечено в действии незадолго до запуска Барда. В феврале сотрудник Google написал внутренней группе сообщение: «Bard более чем бесполезен: пожалуйста, не запускайте», и множество других сотрудников согласились с этим. В следующем месяце Джен Дженнаи, руководитель отдела управления искусственным интеллектом Google, отменила оценку рисков, в которой говорилось, что Бард могло причинить вред и не было готово к запуску, поэтому продвигалось вперед с первым публичным выпуском чат-бот.
Отчет Bloomberg рисует картину компании, не доверяющей этическим проблемам, которые, по ее мнению, могут помешать прибыльности ее собственных продуктов. Например, один работник попросил поработать над справедливостью в машинном обучении, но его неоднократно отговаривали до такой степени, что это повлияло на его оценку производительности. Менеджеры жаловались, что этические проблемы мешают их «настоящей работе», заявил сотрудник.
Это тревожная позиция, тем более что мы уже видели множество примеров Неправомерное поведение чат-бота с искусственным интеллектом которое предоставило оскорбительную, вводящую в заблуждение или совершенно ложную информацию. Если отчет Bloomberg прав в отношении, казалось бы, враждебного подхода Google к этическим проблемам, это может быть только началом проблем, вызванных ИИ.
Рекомендации редакции
- Ведущие авторы требуют от компаний, занимающихся искусственным интеллектом, оплату за использование их работ
- GPT-4: как использовать чат-бота с искусственным интеллектом, который посрамляет ChatGPT
- Wix использует ChatGPT, чтобы помочь вам быстро создать целый веб-сайт.
- Производитель ChatGPT OpenAI сталкивается с расследованием Федеральной торговой комиссии по поводу законов о защите прав потребителей
- Трафик сайта ChatGPT впервые упал
Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, содержательным редакционным статьям и уникальным кратким обзорам.