Google казва на служителите да внимават с чат ботове с изкуствен интелект

Alphabet каза на служителите си да не въвеждат поверителна информация в Bard, генериращият AI чатбот, създаден и управляван от Google, който Alphabet притежава.

Предупреждението на компанията се отнася и до други чатботове, като поддържания от Microsoft ChatGPT от OpenAI, Ройтерс съобщи в четвъртък.

Препоръчани видеоклипове

Задвижваните от изкуствен интелект чатботове предизвикаха огромен интерес през последните месеци поради впечатляващата си способност да разговарят по човешки начин, да пишат есета и доклади и дори да полагат успехи на академични тестове.

Свързани

  • Google Bard вече може да говори, но може ли да заглуши ChatGPT?
  • Новата AI компания на Илон Мъск има за цел да „разбере вселената“
  • Пробивите в ИИ могат да дойдат чрез мозъците на пчелите, твърдят учени

Но Alphabet има притеснения, че нейните служители неволно изтичат вътрешни данни чрез инструментите.

В текущата работа за усъвършенстване и подобряване на усъвършенстваната AI технология, рецензентите могат да четат разговорите, които потребителите водят с чатботовете, представлява риск за неприкосновеността на личния живот, както и потенциалното разкриване на търговски тайни, последното от което Alphabet изглежда особено загрижено относно.

В допълнение, чатботовете са частично обучени с помощта на обмен на текстови съобщения на потребителите, така че с определени подкани инструментът потенциално може да повтори поверителна информация, която получава в тези разговори на членове на публичен.

като ChatGPT, Бард е сега свободно достъпни за всеки да опита. На своята уеб страница той предупреждава потребителите: „Моля, не включвайте информация, която може да се използва за идентифициране на вас или други хора във вашите разговори с Bard.“

Той добавя, че Google събира „разговори на Bard, свързана информация за използването на продукти, информация за вашия местоположение и вашите отзиви“ и използва данните, за да подобри продуктите и услугите на Google, които включват Бард.

Google казва, че съхранява активността на Bard до 18 месеца, въпреки че потребителят може да промени това на три или 36 месеца в своя акаунт в Google.

Той добавя, че като мярка за поверителност разговорите на Bard се прекъсват от акаунт в Google, преди човек да ги види.

Reuters каза, че въпреки че предупреждението на Alphabet е в сила от известно време, то наскоро го разшири, казвайки на служителите си да избягват използването на прецизен компютърен код, генериран от чатботове. Компанията каза на новинарското издание, че Bard понякога може да прави „нежелани предложения за код“, въпреки че текущата итерация на инструмента все още се счита за жизнеспособна помощ за програмиране.

Alphabet не е единствената компания, която предупреждава служителите си за рисковете за поверителността и сигурността, свързани с използването на чатботовете. Samsung наскоро издаде a подобни инструкции за своите работници след като редица от тях подадоха чувствителни данни, свързани с полупроводници, в ChatGPT, а Apple и Amazon, наред с други, според съобщенията също са въвели подобна вътрешна политика.

Препоръки на редакторите

  • Най-добрите AI инструменти за редактиране на видео
  • Създателят на ChatGPT OpenAI е изправен пред разследване на FTC относно законите за защита на потребителите
  • Трафикът на уебсайта на ChatGPT е спаднал за първи път
  • OpenAI изгражда нов екип, за да спре свръхинтелигентния AI да стане измамник
  • Целият интернет вече принадлежи на AI на Google

Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.