A Meta, proprietária do Facebook, planeja introduzir chatbots com personalidades distintas em seu aplicativo de mídia social. O lançamento pode acontecer já em setembro e seria um desafio para rivais como ChatGPT, mas há preocupações de que possa haver sérias implicações para a privacidade dos usuários.
Conteúdo
- Preocupações com a privacidade
- um grande risco
A ideia vem do Financial Times, que relata que a mudança é uma tentativa de aumentar o engajamento com Facebook Usuários. A nova ferramenta pode fazer isso fornecendo novos recursos de pesquisa ou recomendando conteúdo, tudo por meio de discussões humanas.
Segundo fontes citadas pelo Financial Times, os chatbots vão assumir diferentes personas, incluindo “um que emula Abraham Lincoln e outro que aconselha sobre opções de viagem no estilo de um surfista."
Relacionado
- A Apple trabalha secretamente em um rival do ChatGPT há anos
- Hackers estão usando IA para criar malware vicioso, diz FBI
- É por isso que as pessoas pensam que o GPT-4 pode estar ficando mais burro com o tempo
Esta não seria a primeira vez que vimos chatbots assumirem suas próprias personalidades ou conversarem no estilo de pessoas famosas. O chatbot Character.ai, por exemplo, pode adotar dezenas de personalidades diferentes, inclusive de celebridades e figuras históricas.
Vídeos recomendados
Preocupações com a privacidade
Apesar da promessa que os chatbots da Meta podem mostrar, também surgiram temores sobre a quantidade de dados que eles provavelmente coletarão - especialmente considerando que o Facebook tem um recorde abismal em proteger a privacidade do usuário.
Ravit Dotan, consultor e pesquisador de ética em IA, foi citado pelo Financial Times como tendo dito “Uma vez que os usuários interagem com um chatbot, ele realmente expõe muito mais seus dados para a empresa, para que a empresa possa fazer o que quiser com isso dados."
Isso não apenas aumenta a perspectiva de violações de privacidade de longo alcance, mas também permite a possibilidade de “manipulação e cutucada” dos usuários, acrescentou Dotan.
um grande risco
Outros chatbots como ChatGPT e Bing Chat tiveram um história de “alucinações”, ou momentos em que eles compartilham informações incorretas - ou mesmo desinformação. O dano potencial causado por desinformação e preconceito pode ser muito maior no Facebook, que tem quase quatro bilhões de usuários, em comparação com os chatbots rivais.
As tentativas anteriores da Meta com chatbots foram ruins, com o BlenderBot 2 e o BlenderBot 3 da empresa evoluindo rapidamente para conteúdo enganoso e discurso de ódio inflamatório. Isso pode não dar muita esperança aos usuários para o último esforço do Meta.
Com a aproximação rápida de setembro, talvez não demoremos muito para ver se o Facebook é capaz de superar esses obstáculos, ou se teremos outro lançamento crivado de alucinações semelhantes aos sofridos em outras partes do indústria. Aconteça o que acontecer, será interessante assistir.
Recomendações dos editores
- ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
- O rival ChatGPT da Apple está "significativamente atrás dos concorrentes"
- Até o OpenAI desistiu de tentar detectar o plágio do ChatGPT
- GPT-4: como usar o chatbot AI que envergonha o ChatGPT
- O que é um prompt DAN para ChatGPT?
Atualize seu estilo de vidaO Digital Trends ajuda os leitores a acompanhar o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais perspicazes e prévias exclusivas.