Alphabet приказала своим сотрудникам не вводить конфиденциальную информацию в Bard, генеративный чат-бот с искусственным интеллектом, созданный и управляемый Google, которым владеет Alphabet.
Предупреждение компании также распространяется на других чат-ботов, таких как поддерживаемый Microsoft ChatGPT от OpenAI, Агентство Рейтер сообщило в четверг.
Рекомендуемые видео
В последние месяцы чат-боты на базе ИИ вызвали огромный интерес из-за их впечатляющей способности общаться по-человечески, писать эссе и отчеты и даже успешно сдавать академические тесты.
Связанный
- Google Bard теперь может говорить, но сможет ли он заглушить ChatGPT?
- Новая компания Илона Маска, занимающаяся искусственным интеллектом, стремится «познать вселенную»
- Ученые говорят, что прорывы в области искусственного интеллекта могут произойти благодаря мозгу пчел
Но у Alphabet есть опасения по поводу того, что его работники непреднамеренно сливают внутренние данные через инструменты.
В рамках текущей работы по совершенствованию и улучшению передовой технологии искусственного интеллекта рецензенты-люди могут читать разговоры пользователей с чат-ботами, создание риска для личной жизни, а также потенциального раскрытия коммерческой тайны, последнее из которых, по-видимому, особенно обеспокоено Alphabet. о.
Кроме того, чат-боты частично обучаются с помощью обмена текстовыми сообщениями пользователей, поэтому при определенных подсказках инструмент потенциально может повторять конфиденциальную информацию, которую он получает в этих разговорах, с членами общественный.
Нравиться ЧатGPT, Бард сейчас в свободном доступе чтобы кто-нибудь попробовал. На своей веб-странице он предупреждает пользователей: «Пожалуйста, не включайте информацию, которая может быть использована для идентификации вас или других лиц в ваших разговорах с Бардом».
Он добавляет, что Google собирает «беседы Барда, информацию об использовании связанных продуктов, информацию о ваших местонахождение и ваши отзывы», и использует эти данные для улучшения продуктов и услуг Google, в том числе Бард.
Google говорит, что хранит активность Bard до 18 месяцев, хотя пользователь может изменить это значение на три или 36 месяцев в своей учетной записи Google.
Он добавляет, что в качестве меры конфиденциальности разговоры Bard отключаются от учетной записи Google до того, как их увидит рецензент.
Агентство Reuters сообщило, что, хотя предупреждение Alphabet действует уже некоторое время, оно недавно расширило его, попросив своих сотрудников избегать использования точного компьютерного кода, сгенерированного чат-ботами. Компания сообщила новостному изданию, что Бард иногда может делать «нежелательные предложения по коду», хотя текущая итерация инструмента по-прежнему считается жизнеспособным средством программирования.
Alphabet — не единственная компания, которая предупреждает своих сотрудников о рисках для конфиденциальности и безопасности, связанных с использованием чат-ботов. Компания Samsung недавно выпустила аналогичная инструкция своим работникам после того, как некоторые из них передали конфиденциальные данные, связанные с полупроводниками, в ChatGPT, Apple и Amazon, среди прочих, по сообщениям, также приняли аналогичную внутреннюю политику.
Рекомендации редакции
- Лучшие инструменты для редактирования видео с искусственным интеллектом
- Производитель ChatGPT OpenAI столкнулся с расследованием FTC по поводу законов о защите прав потребителей
- Посещаемость сайта ChatGPT впервые упала
- OpenAI создает новую команду, чтобы не дать суперинтеллектуальному ИИ выйти из-под контроля
- Весь Интернет теперь принадлежит искусственному интеллекту Google
Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, проницательным редакционным статьям и единственным в своем роде кратким обзорам.