구글, 직원들에게 AI 챗봇 조심하라고 지시

알파벳은 직원들에게 알파벳이 소유하고 있는 구글이 만들고 운영하는 생성 AI 챗봇인 바드에 기밀 정보를 입력하지 말라고 지시했다.

회사의 경고는 Microsoft가 지원하는 OpenAI의 ChatGPT와 같은 다른 챗봇에도 적용됩니다. 로이터 보도 목요일에.

추천 동영상

AI로 구동되는 챗봇은 인간과 같은 방식으로 대화하고, 에세이와 보고서를 작성하고, 심지어 학업 시험에서도 성공하는 인상적인 능력으로 인해 최근 몇 달 동안 큰 관심을 불러일으켰습니다.

관련된

  • Google Bard는 이제 말할 수 있지만 ChatGPT를 익사시킬 수 있습니까?
  • Elon Musk의 새로운 AI 회사는 '우주 이해'를 목표로합니다.
  • 꿀벌의 두뇌를 통해 AI 혁신이 올 수 있다고 과학자들은 말합니다.

그러나 알파벳은 직원들이 도구를 통해 실수로 내부 데이터를 유출하는 것에 대해 우려하고 있습니다.

고급 AI 기술을 개선하고 개선하기 위한 지속적인 작업에서 검토자는 사용자가 챗봇과 나누는 대화를 읽을 수 있습니다. 개인 사생활에 대한 위험과 영업 비밀의 잠재적 노출을 야기하며 후자는 알파벳이 특히 우려하는 것으로 보입니다. 에 대한.

또한 챗봇은 사용자의 텍스트 교환을 사용하여 부분적으로 학습되므로 특정 프롬프트에서 도구가 이러한 대화에서 받은 기밀 정보를 잠재적으로 구성원에게 반복할 수 있습니다. 공공의.

좋다 채팅GPT, 바드는 지금 자유롭게 사용 가능 누구나 시도할 수 있습니다. 웹 페이지에서 사용자에게 경고합니다. "음유 시인 대화에서 귀하 또는 다른 사람을 식별하는 데 사용할 수 있는 정보를 포함하지 마십시오."

Google은 "Bard 대화, 관련 제품 사용 정보, 귀하에 대한 정보를 수집합니다. 위치 및 귀하의 의견”을 포함하는 Google 제품 및 서비스를 개선하기 위해 데이터를 사용합니다. 음유 시인.

Google은 Bard 활동을 최대 18개월 동안 저장한다고 말하지만 사용자는 Google 계정에서 이를 3개월 또는 36개월로 변경할 수 있습니다.

개인 정보 보호 조치로 Bard 대화는 인간 검토자가 보기 전에 Google 계정에서 연결이 끊어집니다.

로이터통신은 알파벳의 경고가 한동안 시행됐지만 최근 직원들에게 챗봇이 생성한 정확한 컴퓨터 코드를 사용하지 말라고 경고하는 내용을 확대했다고 전했다. 회사는 뉴스 매체에 Bard가 때때로 "원치 않는 코드 제안"을 할 수 있다고 말했지만 현재 도구의 반복은 여전히 ​​실행 가능한 프로그래밍 지원으로 간주됩니다.

직원들에게 챗봇 사용과 관련된 개인 정보 보호 및 보안 위험에 대해 경고하는 회사는 알파벳만이 아닙니다. 삼성은 최근 노동자들에게 유사한 지시 이들 중 다수가 민감한 반도체 관련 데이터를 ChatGPT에 입력한 후 애플, 아마존 등도 유사한 내부 정책을 제정한 것으로 알려졌다.

편집자 추천

  • 최고의 AI 비디오 편집 도구
  • ChatGPT 제조사 OpenAI, 소비자 보호법에 대한 FTC 조사 직면
  • ChatGPT 웹사이트 트래픽이 처음으로 감소했습니다.
  • 초지능 AI의 도적질을 막기 위해 새로운 팀을 구축하는 OpenAI
  • 모든 인터넷은 이제 Google의 AI에 속합니다.

라이프스타일을 업그레이드하세요Digital Trends는 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 독자가 빠르게 변화하는 기술 세계를 파악할 수 있도록 도와줍니다.