Alphabet powiedział swoim pracownikom, aby nie wprowadzali poufnych informacji do Bard, generatywnego chatbota AI stworzonego i obsługiwanego przez Google, którego właścicielem jest Alphabet.
Ostrzeżenie firmy obejmuje również inne chatboty, takie jak wspierany przez Microsoft ChatGPT z OpenAI, poinformował Reuters w czwartek.
Polecane filmy
Chatboty napędzane sztuczną inteligencją wzbudziły w ostatnich miesiącach ogromne zainteresowanie ze względu na ich imponującą zdolność do prowadzenia rozmów w sposób ludzki, pisania esejów i raportów, a nawet osiągania sukcesów w testach akademickich.
Powiązany
- Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
- Nowa firma AI Elona Muska ma na celu „zrozumienie wszechświata”
- Naukowcy twierdzą, że przełom w sztucznej inteligencji może nastąpić za pośrednictwem mózgów pszczół
Ale Alphabet ma obawy, że jego pracownicy nieumyślnie ujawnią wewnętrzne dane za pośrednictwem narzędzi.
W ramach trwających prac nad udoskonalaniem i ulepszaniem zaawansowanej technologii sztucznej inteligencji, weryfikatorzy mogą czytać rozmowy użytkowników z chatbotami, stwarzające zagrożenie dla prywatności, a także potencjalne ujawnienie tajemnic handlowych, z których to ostatnie wydaje się być szczególnie zaniepokojone przez Alphabet o.
Ponadto chatboty są częściowo szkolone przy użyciu wymiany wiadomości tekstowych użytkowników, więc z pewnymi monitami narzędzie może potencjalnie powtarzać poufne informacje, które otrzymuje w tych rozmowach, członkom grupy publiczny.
Tak jak ChatGPT, Bard jest teraz łatwo dostępny aby każdy spróbował. Na swojej stronie internetowej ostrzega użytkowników: „Proszę nie umieszczać informacji, które mogą posłużyć do zidentyfikowania Ciebie lub innych osób w rozmowach z Bardem”.
Dodaje, że Google gromadzi „rozmowy Barda, powiązane informacje o użytkowaniu produktów, informacje o tobie lokalizacja i Twoja opinia” i wykorzystuje te dane do ulepszania produktów i usług Google, które obejmują Bard.
Google twierdzi, że przechowuje aktywność Bard przez okres do 18 miesięcy, chociaż użytkownik może zmienić to na trzy lub 36 miesięcy na swoim koncie Google.
Dodaje, że jako środek ochrony prywatności rozmowy Bard są odłączane od konta Google, zanim zobaczy je recenzent.
Reuters powiedział, że chociaż ostrzeżenie Alphabet obowiązuje już od jakiegoś czasu, ostatnio rozszerzyło je, mówiąc swoim pracownikom, aby unikali używania precyzyjnego kodu komputerowego generowanego przez chatboty. Firma powiedziała serwisowi informacyjnemu, że Bard może czasami przedstawiać „niepożądane sugestie dotyczące kodu”, chociaż obecna iteracja narzędzia jest nadal uważana za realną pomoc programistyczną.
Alphabet nie jest jedyną firmą, która ostrzega swoich pracowników o zagrożeniach dla prywatności i bezpieczeństwa związanych z korzystaniem z chatbotów. Samsung niedawno wydał podobne instrukcje swoim pracownikom po tym, jak wielu z nich wprowadziło wrażliwe dane związane z półprzewodnikami do ChatGPT, a między innymi Apple i Amazon również przyjęły podobną politykę wewnętrzną.
Zalecenia redaktorów
- Najlepsze narzędzia do edycji wideo AI
- Twórca ChatGPT OpenAI mierzy się z sondą FTC w sprawie przepisów dotyczących ochrony konsumentów
- Ruch na stronie ChatGPT spadł po raz pierwszy
- OpenAI buduje nowy zespół, aby powstrzymać superinteligentną sztuczną inteligencję przed zbuntowaniem się
- Cały Internet należy teraz do sztucznej inteligencji Google
Ulepsz swój styl życiaTrendy cyfrowe pomagają czytelnikom śledzić szybko zmieniający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zapowiedziom.