Tem-se falado muito nos últimos meses sobre como a nova onda de chatbots com tecnologia de IA, ChatGPT entre eles, poderia derrubar vários setores, incluindo a profissão jurídica.
No entanto, a julgar pelo que aconteceu recentemente num caso na cidade de Nova Iorque, parece que poderá demorar algum tempo até que advogados altamente treinados sejam afastados pela tecnologia.
Vídeos recomendados
O episódio bizarro começou quando Roberto Mata processou uma companhia aérea colombiana após alegar que sofreu um ferimento em um voo para Nova York.
Relacionado
- Os principais autores exigem pagamento de empresas de IA pelo uso de seu trabalho
- GPT-4: como usar o chatbot AI que envergonha o ChatGPT
- Wix usa ChatGPT para ajudá-lo a construir rapidamente um site inteiro
A companhia aérea Avianca pediu ao juiz que encerrasse o caso, então a equipe jurídica de Mata elaborou um documento citando meia dúzia de casos semelhantes que ocorreram num esforço para persuadir o juiz a deixar o caso do seu cliente Continuar, O jornal New York Times relatado.
O problema é que os advogados da companhia aérea e o juiz não conseguiram encontrar nenhuma prova dos casos mencionados no escrito. Por que? Porque o ChatGPT inventou todos eles.
O criador do briefing, Steven A. Schwartz – um advogado altamente experiente no escritório Levidow, Levidow & Oberman – admitiu em um depoimento que usou O muito celebrado chatbot ChatGPT da OpenAI para procurar casos semelhantes, mas disse que “revelou ser não confiável."
Schwartz disse ao juiz que nunca havia usado o ChatGPT antes e “portanto, não tinha conhecimento da possibilidade de seu conteúdo ser falso”.
Ao criar o briefing, Schwartz ainda pediu ao ChatGPT que confirmasse se os casos realmente aconteceram. O sempre útil chatbot respondeu afirmativamente, dizendo que informações sobre eles poderiam ser encontradas em “bancos de dados jurídicos confiáveis”.
O advogado no centro da tempestade disse que “lamenta muito” ter usado o ChatGPT para criar o documento e insistiu que “nunca o faria no futuro sem verificação absoluta de sua autenticidade”.
Olhando para o que ele descreveu como uma submissão legal cheia de “decisões judiciais falsas, com citações falsas e declarações internas falsas citações”, e descrevendo a situação como sem precedentes, o juiz Castel ordenou uma audiência para o início do próximo mês para considerar possíveis penalidades.
Embora impressionantes na forma como produzem texto fluido de alta qualidade, ChatGPT e outros chatbots semelhantes também são conhecidos por inventar coisas e apresentá-las como se fossem reais - algo que Schwartz aprendeu com seus custo. O fenômeno é conhecido como “alucinante” e é um dos maiores desafios enfrentados pelos desenvolvedores humanos por trás dos chatbots enquanto buscam resolver esse problema tão problemático.
Em outro exemplo recente de alucinação de uma ferramenta de IA generativa, um Prefeito australiano acusou ChatGPT de criar mentiras sobre ele, incluindo que ele foi preso por suborno enquanto trabalhava para um banco há mais de uma década.
O prefeito, Brian Hood, foi na verdade um denunciante do caso e nunca foi acusado de nenhum crime, então ele ficou bastante chateado quando as pessoas começaram a informá-lo sobre a reescrita da história pelo chatbot.
Recomendações dos Editores
- Veja por que as pessoas pensam que o GPT-4 pode ficar mais burro com o tempo
- ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
- O que é um prompt DAN para ChatGPT?
- O Google Bard agora pode falar, mas será que pode abafar o ChatGPT?
- OpenAI, fabricante do ChatGPT, enfrenta investigação da FTC sobre leis de proteção ao consumidor
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.