Quer você acredite que foi uma das versões mais perigosas da inteligência artificial criada ou a rejeite como um enorme e desnecessário PR exercício, não há dúvida de que o algoritmo GPT-2 criado pelo laboratório de pesquisa OpenA.I. causou muita agitação quando foi anunciado no início deste ano.
Revelado em fevereiro, OpenA.I. disse que desenvolveu um algoritmo muito perigoso para ser divulgado ao público em geral. Embora fosse apenas um gerador de texto, o GPT-2 supostamente gerava um texto tão loucamente humano que poderia convencer as pessoas de que estavam lendo um texto real escrito por uma pessoa real. Para usá-lo, tudo o que o usuário precisava fazer era alimentar o início do documento e depois deixar o A.I. assumir para completá-lo. Dê-lhe a abertura de uma reportagem de jornal e ele até fabricaria “citações” fictícias. Previsivelmente, a mídia noticiosa exagerou ao descrever isso como o nova face aterrorizante das notícias falsas. E por uma razão potencialmente boa.
Vídeos recomendados
Avance alguns meses e os usuários agora podem experimentar o uso da IA. para eles mesmos. O algoritmo aparece em um site, chamado “Fale com o Transformer”, hospedado pelo engenheiro de aprendizado de máquina Adam King.
“Por enquanto, OpenA.I. decidiu lançar apenas versões pequenas e médias que não são tão coerentes, mas ainda produzem resultados interessantes”, escreve ele em seu site. “Este site executa o novo modelo de tamanho médio (3 de maio), chamado 345M pelos 345 milhões de parâmetros que usa. Se e quando [OpenAI] lançar o modelo completo, provavelmente o colocarei em execução aqui.
Em um nível superior, o GPT-2 não funciona de maneira tão diferente dos teclados móveis preditivos que prevêem a palavra que você deseja escrever a seguir. No entanto, como observa King, “Embora o GPT-2 tenha sido treinado apenas para prever a próxima palavra em um texto, ele surpreendentemente aprendi competência básica em algumas tarefas, como traduzir entre idiomas e responder questões. Isso sem nunca ser informado de que seria avaliado nessas tarefas.”
Os resultados são, francamente, pouco enervantes. Embora ainda seja propenso a bobagens geradas por IA, não chega nem perto do nível de tolice, já que as várias redes neurais usadas para gerar capítulos de novo Uma música de gelo e Fogo romances ou monólogos de Esfrega. Diante do primeiro parágrafo desta história, por exemplo, ela fez um trabalho bastante útil em produzindo algo convincente - completo com um pouco de conhecimento do assunto para ajudar a vender o efeito.
Pensar que esta é a Skynet das notícias falsas provavelmente é ir um pouco longe. Mas é definitivamente o suficiente para causar um pequeno arrepio na espinha.
Recomendações dos Editores
- Os principais autores exigem pagamento de empresas de IA pelo uso de seu trabalho
- O Google Bard agora pode falar, mas será que pode abafar o ChatGPT?
- O tráfego do site ChatGPT caiu pela primeira vez
- OpenAI revela localização de seu primeiro posto avançado internacional
- O rival ChatGPT da Apple pode escrever código automaticamente para você
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.