Google diz à equipe para ter cuidado com chatbots de IA

click fraud protection

A Alphabet disse a seus funcionários para não inserir informações confidenciais no Bard, o chatbot de IA generativo criado e operado pelo Google, de propriedade da Alphabet.

O aviso da empresa também se estende a outros chatbots, como o ChatGPT da OpenAI, apoiado pela Microsoft, Reuters informou na quinta feira.

Vídeos recomendados

Os chatbots com inteligência artificial geraram grande interesse nos últimos meses devido à sua impressionante capacidade de conversar de maneira humana, escrever ensaios e relatórios e até ter sucesso em testes acadêmicos.

Relacionado

  • O Google Bard agora pode falar, mas pode abafar o ChatGPT?
  • A nova empresa de IA de Elon Musk visa "entender o universo"
  • Avanços da IA ​​podem vir do cérebro das abelhas, dizem cientistas

Mas a Alphabet teme que seus funcionários vazem inadvertidamente dados internos por meio das ferramentas.

No trabalho contínuo para refinar e melhorar a tecnologia avançada de IA, os revisores humanos podem ler as conversas que os usuários têm com os chatbots, representando um risco para a privacidade pessoal e também a possível exposição de segredos comerciais, o último dos quais a Alphabet parece estar particularmente preocupada sobre.

Além disso, os chatbots são parcialmente treinados usando trocas de texto dos usuários, portanto, com determinados prompts, a ferramenta poderia potencialmente repetir informações confidenciais que recebe nessas conversas para membros do público.

Como ChatGPT, Bardo é agora disponível gratuitamente para qualquer um tentar. Em sua página na web, ele adverte os usuários: “Por favor, não inclua informações que possam ser usadas para identificar você ou outras pessoas em suas conversas com o Bard”.

Acrescenta que o Google coleta “conversas de bardos, informações relacionadas ao uso de produtos, informações sobre seu localização e seu feedback" e usa os dados para melhorar os produtos e serviços do Google que incluem Bardo.

O Google diz que armazena a atividade do Bard por até 18 meses, embora um usuário possa alterar isso para três ou 36 meses em sua conta do Google.

Acrescenta que, como medida de privacidade, as conversas do Bard são desconectadas de uma conta do Google antes que um revisor humano as veja.

A Reuters disse que, embora o aviso da Alphabet esteja em vigor há algum tempo, ela o expandiu recentemente, dizendo a seus funcionários para evitar o uso de códigos de computador precisos gerados por chatbots. A empresa disse à agência de notícias que Bard às vezes pode fazer “sugestões de código indesejadas”, embora a iteração atual da ferramenta ainda seja considerada uma ajuda de programação viável.

A Alphabet não é a única empresa a alertar seus funcionários sobre os riscos de privacidade e segurança associados ao uso de chatbots. A Samsung emitiu recentemente um instrução semelhante aos seus trabalhadores depois que vários deles alimentaram dados confidenciais relacionados a semicondutores no ChatGPT, e Apple e Amazon, entre outros, também promulgaram uma política interna semelhante.

Recomendações dos editores

  • As melhores ferramentas de edição de vídeo AI
  • OpenAI, fabricante do ChatGPT, enfrenta investigação da FTC sobre leis de proteção ao consumidor
  • O tráfego do site ChatGPT caiu pela primeira vez
  • OpenAI construindo nova equipe para impedir que a IA superinteligente se torne desonesta
  • Toda a internet agora pertence à IA do Google

Atualize seu estilo de vidaO Digital Trends ajuda os leitores a acompanhar o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais perspicazes e prévias exclusivas.