ChatGPT tornou-se rapidamente o queridinho da IA generativa, mas dificilmente é o único jogador no jogo. Além de todas as outras ferramentas de IA por aí que fazem coisas como geração de imagens, também há vários concorrentes diretos com o ChatGPT - ou assim presumi.
Conteúdo
- Bing da Microsoft
- BERT do Google
- Meena do Google
- RoBERTa por Facebook
- XLNet do Google
- DialoGPT da Microsoft Research
- ALBERTO do Google
- T5 pelo Google
- CTRL por Salesforce
- GShard do Google
- Blender pela Pesquisa de IA do Facebook
- Pegasus do Google
Por que não perguntar ao ChatGPT sobre isso? Foi exatamente o que fiz para obter esta lista, esperando encontrar algumas opções para aqueles enfrentando avisos de "capacidade", ou outros que apenas querem experimentar algo novo. Nem todos são tão acessíveis ao público quanto o ChatGPT, mas, de acordo com o ChatGPT, essas são as melhores alternativas.
Vídeos recomendados
Bing da Microsoft
Antes de entrar nas escolhas listadas pela IA, a melhor alternativa ao ChatGPT é, bem, o ChatGPT. Microsoft recentemente
adicionou a IA em seu mecanismo de pesquisa Bing, e planeja lançar o recurso para o navegador Edge em breve.Relacionado
- OpenAI, fabricante do ChatGPT, enfrenta investigação da FTC sobre leis de proteção ao consumidor
- O crescimento recorde do ChatGPT acabou de ser destronado por um novo aplicativo viral
- OpenAI construindo nova equipe para impedir que a IA superinteligente se torne desonesta
Está apenas em pré-visualização, mas você ainda pode experimentar o novo chatbot AI em bing.com/new agora mesmo. A Microsoft diz que está limitando o número de consultas inicialmente, mas você pode junte-se à lista de espera do Bing ChatGPT para ser notificado quando a versão completa estiver disponível.
BERT do Google
BERT (Bidirectional Encoder Representations from Transformers) é um modelo de aprendizado de máquina desenvolvido pelo Google. Muitos resultados do ChatGPT mencionaram projetos do Google, que você verá mais adiante nesta lista.
O BERT é conhecido por suas habilidades de processamento de linguagem natural (NLP), como resposta a perguntas e análise de sentimentos. Ele usa o BookCorpus e a Wikipedia em inglês como modelos para referências de pré-treinamento, tendo aprendido 800 milhões e 2,5 bilhões de palavras, respectivamente.
O BERT foi anunciado pela primeira vez como um projeto de pesquisa de código aberto e trabalho acadêmico em outubro de 2018. A tecnologia já foi implementada na Pesquisa do Google. literatura antiga sobre o BERT compare-o com o ChatGPT da OpenAI em novembro de 2018, observando que a tecnologia do Google é profundamente bidirecional, o que ajuda a prever o texto recebido. Enquanto isso, o OpenAI GPT é unidirecional e só pode responder a consultas complexas.
Meena do Google
Meena é um chatbot que Google introduzido em janeiro de 2020 com a capacidade de conversar de maneira humana. Exemplos de suas funções incluem conversas simples que incluem piadas e trocadilhos interessantes, como Meena sugerindo que vacas estudem “Ciências bovinas” em Harvard.
Como alternativa direta ao GPT-2 da OpenAI, Meena tinha a capacidade de processar 8,5 vezes mais dados que seu concorrente na época. Sua rede neural compreende 2,6 parâmetros e é treinada em conversas de mídia social de domínio público. Meena também recebeu uma pontuação métrica em Sensibilidade e Especificidade Média (SSA) de 79%, tornando-o um dos chatbots mais inteligentes de seu tempo.
O código Meena está disponível em GitHub.
RoBERTa por Facebook
RoBERTa (Robustly Optimized BERT Pretraining Approach) é outra versão avançada do BERT original, que Facebook anunciou em julho de 2019.
Facebook criou este modelo de PNL com uma fonte maior de dados como seu modelo de pré-treinamento. RoBERTa usa CommonCrawl (CC-News), que inclui 63 milhões de artigos de notícias em inglês gerados entre setembro de 2016 e fevereiro de 2019, como seu conjunto de dados de 76 GB. Em comparação, o BERT original usa 16 GB de dados entre seus conjuntos de dados da Wikipedia em inglês e do BookCorpus, de acordo com o Facebook.
Silimar para XLNet, RoBERTa superou o BERT em um conjunto de conjuntos de dados de referência, conforme pesquisa do Facebook. Para obter esses resultados, a empresa não apenas usou uma fonte de dados maior, mas também pré-treinou seu modelo para um período de tempo mais longo.
Facebook fez RoBERTa Código aberto em setembro de 2019, e seu código é disponível no GitHub para experimentação da comunidade.
Venture Beat também mencionou GPT-2 entre os sistemas de IA emergentes durante esse tempo.
XLNet do Google
XLNET é um modelo de linguagem autorregressiva baseado em transformador desenvolvido por uma equipe de Pesquisadores do Google Brain e da Carnegie Mellon University. O modelo é essencialmente um BERT mais avançado e foi apresentado pela primeira vez em junho de 2019. O grupo descobriu que o XLNet é pelo menos 16% mais eficiente do que o BERT original, anunciado em 2018, capaz de vencer o BERT em um teste de 20 tarefas de PNL.
XLNet: um novo método de pré-treinamento para PNL que melhora significativamente o BERT em 20 tarefas (por exemplo, SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (código + modelos pré-treinados): https://t.co/kI4jsVzT1u
com Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20 de junho de 2019
Com XLNet e BERT usando tokens “mascarados” para prever texto oculto, o XLNet melhora a eficiência acelerando a parte preditiva do processo. Por exemplo, Amazônia Alexa cientista de dados Aishwarya Srinivasan explicado que a XLNet é capaz de identificar a palavra “New” como associada ao termo “is a city” antes de prever o termo “York” como também associado a esse termo. Já o BERT precisa identificar as palavras “New” e “York” separadamente e depois associá-las ao termo “is a city”, por exemplo.
Notavelmente, GPT e GPT-2 são também mencionado neste explicador de 2019 como outros exemplos de modelos de linguagem autorregressivos.
Código XLNet e modelos pré-treinados são disponível no GitHub. O modelo é bem conhecido entre a comunidade de pesquisa em PNL.
DialoGPT da Microsoft Research
O DialoGPT (Dialogue Generative Pre-trained Transformer) é um modelo de linguagem autorregressiva que foi introduzido em novembro de 2019 pela Microsoft Research. Com semelhanças com o GPT-2, o modelo foi pré-treinado para gerar conversa humana. No entanto, sua principal fonte de informação foram 147 milhões de diálogos de vários turnos extraídos de tópicos do Reddit.
O evangelista-chefe da HumanFirst, Cobus Greyling, observou seu sucesso na implementação do DialoGPT no serviço de mensagens Telegram para dar vida ao modelo como um chatbot. Ele acrescentou que o uso do Amazon Web Services e do Amazon SageMaker pode ajudar a ajustar o código.
O código DialoGPT está disponível em GitHub.
ALBERTO do Google
ALBERT (A Lite BERT) é uma versão truncada do BERT original e foi desenvolvido pelo Google em dezembro de 2019.
Com o ALBERT, o Google limitou o número de parâmetros permitidos no modelo, introduzindo parâmetros com “incorporações de camada oculta”.
Isso melhorou não apenas no modelo BERT, mas também no XLNet e no RoBERTa porque o ALBERT pode ser treinado em o mesmo conjunto de dados maior de informações usado para os dois modelos mais novos, ao mesmo tempo em que adere a modelos menores parâmetros. Essencialmente, o ALBERT trabalha apenas com os parâmetros necessários para suas funções, o que aumenta o desempenho e a precisão. O Google detalhou que descobriu que o ALBERT excedeu o BERT em 12 benchmarks de NLP, incluindo um benchmark de compreensão de leitura semelhante ao SAT.
Embora não seja mencionado pelo nome, o GPT está incluído na imagem do ALBERT no blog de pesquisa do Google.
O Google lançou o ALBERT como código aberto em janeiro de 2020 e foi implementado no TensorFlow do Google. O código está disponível em GitHub.
T5 pelo Google
CTRL por Salesforce
GShard do Google
GShard é um modelo gigante de tradução de idiomas que Google introduzido em junho de 2020 para fins de dimensionamento de rede neural. O modelo inclui 600 bilhões de parâmetros, o que permite grandes conjuntos de treinamento de dados de uma só vez. GShard é particularmente adepto de tradução de idiomas e sendo treinado para traduzir 100 idiomas para o inglês em quatro dias.
Blender pela Pesquisa de IA do Facebook
O Blender é um chatbot de código aberto que foi introduzido em abril de 2020 pela Pesquisa de IA do Facebook. Observou-se que o chatbot melhorou as habilidades de conversação em relação aos modelos concorrentes, com a capacidade de fornecer pontos de conversa envolventes, ouvir e mostrar compreensão da opinião de seu parceiro e mostrar empatia e personalidade.
O Blender foi comparado ao chatbot Meena do Google, que por sua vez foi comparado ao GPT-2 da OpenAI
O código do Blender está disponível em Parl.ai.
Pegasus do Google
Pegasus é um modelo de processamento de linguagem natural que foi apresentado pelo Google em dezembro de 2019. O Pegasus pode ser treinado para criar resumos e, semelhante a outros modelos como BERT, GPT-2, RoBERTa, XLNet, ALBERT e T5, pode ser ajustado para tarefas específicas. Pegasus foi testado em sua eficiência em resumir notícias, ciência, histórias, instruções, e-mails, patentes e projetos de lei em comparação com seres humanos.
O código Pegasus está disponível em GitHub.
Recomendações dos editores
- O Google Bard agora pode falar, mas pode abafar o ChatGPT?
- ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
- O tráfego do site ChatGPT caiu pela primeira vez
- O recurso de navegação Bing do ChatGPT foi desativado devido a uma falha de acesso pago
- Os melhores chatbots de IA para experimentar: ChatGPT, Bard e mais