Компанія Alphabet попросила своїх співробітників не вводити конфіденційну інформацію в Bard, створений і керований чат-ботом зі штучним інтелектом Bard, який належить Alphabet.
Попередження компанії також поширюється на інші чат-боти, такі як ChatGPT від OpenAI, який підтримує Microsoft, Про це повідомляє Reuters на четвер.
Рекомендовані відео
Останніми місяцями чат-боти на основі штучного інтелекту викликали величезний інтерес завдяки своїй вражаючій здатності спілкуватися по-людськи, писати есе та звіти та навіть успішно складати академічні тести.
Пов'язані
- Google Bard тепер може говорити, але чи може він заглушити ChatGPT?
- Нова компанія ШІ Ілона Маска прагне «розуміти Всесвіт»
- Вчені кажуть, що відкриття ШІ можуть відбуватися через мозок бджіл
Але Alphabet має занепокоєння щодо випадкового витоку внутрішніх даних через ці інструменти.
Під час поточної роботи над удосконаленням передової технології штучного інтелекту рецензенти можуть читати розмови користувачів із чат-ботами, створює ризик для особистої конфіденційності, а також потенційне розкриття комерційних таємниць, останнє з яких Alphabet, як видається, особливо стурбоване приблизно.
Крім того, чат-боти частково навчені за допомогою обміну текстовими повідомленнями користувачів, тому з певними підказками інструмент може потенційно повторити конфіденційну інформацію, отриману під час цих розмов, членам громадськість.
Люблю ChatGPT, Бард зараз у вільному доступі щоб будь хто спробував. На своїй веб-сторінці він попереджає користувачів: «Будь ласка, не включайте інформацію, яка може бути використана для ідентифікації вас або інших осіб у ваших розмовах з Bard».
У ньому додається, що Google збирає «розмови Бардів, пов’язану інформацію про використання продуктів, інформацію про ваші місцезнаходження та ваші відгуки», і використовує дані для покращення продуктів і служб Google, які включають Бард.
Google каже, що зберігає активність Bard до 18 місяців, хоча користувач може змінити це на три або 36 місяців у своєму обліковому записі Google.
Додається, що з міркувань конфіденційності розмови Bard від’єднуються від облікового запису Google до того, як їх побачить рецензент.
Агентство Reuters повідомило, що, хоча попередження Alphabet було чинним деякий час, воно нещодавно розширило його, сказавши своїм працівникам уникати використання точного комп’ютерного коду, створеного чат-ботами. Компанія повідомила виданню новин, що Bard іноді може надавати «небажані пропозиції щодо коду», хоча поточна ітерація інструменту все ще вважається життєздатною допоміжною програмою.
Alphabet — не єдина компанія, яка попереджає своїх співробітників про ризики конфіденційності та безпеки, пов’язані з використанням чат-ботів. Samsung нещодавно випустив a аналогічну інструкцію своїм працівникам після того, як деякі з них передали конфіденційні дані, пов’язані з напівпровідниками, у ChatGPT, а Apple і Amazon, серед інших, як повідомляється, також запровадили подібну внутрішню політику.
Рекомендації редакції
- Найкращі інструменти для редагування відео AI
- Розробник ChatGPT OpenAI стикається з розслідуванням FTC щодо законів про захист прав споживачів
- Трафік веб-сайту ChatGPT впав вперше
- OpenAI створює нову команду, щоб зупинити надрозумний штучний інтелект
- Тепер увесь Інтернет належить штучному інтелекту Google
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.