A IA está tornando um golpe de longa data ainda mais eficaz

click fraud protection

Você sem dúvida já ouviu falar do golpe em que o perpetrador liga para um idoso e finge ser seu neto ou algum outro parente próximo. A rotina usual é agir em estado de angústia, fingir que está em uma situação complicada e pedir uma transferência urgente de dinheiro para resolver a situação. Embora muitos avós percebam que a voz não é a do neto e desliguem, outros não notar e, muito ansioso para ajudar seu parente ansioso, vá em frente e envie dinheiro para o telefone de quem ligou conta.

A Washington Post relatório de domingo revela que alguns golpistas levaram o golpe a um nível totalmente novo ao implantar IA tecnologia capaz de clonar vozes, tornando ainda mais provável que o alvo caia no ardil.

Um idoso segurando um telefone.
Ono Kosuki/Pexels

Para lançar esta versão mais sofisticada do golpe, os criminosos exigem “uma amostra de áudio com apenas algumas frases”, segundo o Post. A amostra é então executada por meio de uma das muitas ferramentas on-line amplamente disponíveis que usam a voz original para criar uma réplica que pode ser instruída a dizer o que quiser simplesmente digitando frases.

Relacionado

  • GPT-4: como usar o chatbot AI que envergonha o ChatGPT
  • OpenAI, fabricante do ChatGPT, enfrenta investigação da FTC sobre leis de proteção ao consumidor
  • Avanços na IA podem vir do cérebro das abelhas, dizem os cientistas

Dados da Comissão Federal de Comércio sugerem que, só em 2022, houve mais de 36.000 denúncias dos chamados golpes de impostores, com mais de 5.000 deles acontecendo por telefone. As perdas relatadas atingiram US$ 11 milhões.

Vídeos recomendados

O receio é que, com as ferramentas de IA a tornarem-se mais eficazes e mais amplamente disponíveis, ainda mais pessoas caiam na fraude nos próximos meses e anos.

O golpe ainda requer algum planejamento, no entanto, com um determinado perpetrador precisando encontrar uma amostra de áudio de uma voz, bem como o número de telefone da vítima relacionada. Amostras de áudio, por exemplo, podem ser localizadas online através de sites populares como TikTok e YouTube, enquanto números de telefone também podem ser localizados na web.

O golpe também pode assumir várias formas. O Post cita um exemplo em que alguém fingindo ser advogado contatou um casal de idosos, contando eles que seu neto estava sob custódia por um suposto crime e que eles precisavam de mais de US$ 15.000 para fins legais custos. O falso advogado então fingiu entregar o telefone ao neto, cuja voz clonada implorou ajuda para pagar os honorários, o que eles fizeram devidamente.

Eles só perceberam que haviam sido enganados quando o neto ligou para eles mais tarde naquele dia para conversar. Acredita-se que o golpista tenha clonado sua voz nos vídeos do YouTube postados pelo neto, embora seja difícil ter certeza.

Alguns apelam a que as empresas que fabricam a tecnologia de IA que clona vozes sejam responsabilizadas por tais crimes. Mas antes que isso aconteça, parece certo que muitos outros perderão dinheiro com esse golpe nefasto.

Para ouvir um exemplo de voz clonada e ver o quão próximo ela pode chegar do original, confira este artigo sobre Tendências Digitais.

Recomendações dos Editores

  • Os principais autores exigem pagamento de empresas de IA pelo uso de seu trabalho
  • As melhores ferramentas de edição de vídeo com IA
  • A nova empresa de IA de Elon Musk visa ‘entender o universo’
  • OpenAI construindo nova equipe para impedir que a IA superinteligente se torne desonesta
  • OpenAI revela localização de seu primeiro posto avançado internacional

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.