As melhores alternativas ChatGPT (de acordo com ChatGPT)

click fraud protection

ChatGPT tornou-se rapidamente o queridinho da IA ​​generativa, mas dificilmente é o único jogador no jogo. Além de todas as outras ferramentas de IA por aí que fazem coisas como geração de imagens, também há vários concorrentes diretos com o ChatGPT - ou assim presumi.

Conteúdo

  • Bing da Microsoft
  • BERT do Google
  • Meena do Google
  • RoBERTa por Facebook
  • XLNet do Google
  • DialoGPT da Microsoft Research
  • ALBERTO do Google
  • T5 pelo Google
  • CTRL por Salesforce
  • GShard do Google
  • Blender pela Pesquisa de IA do Facebook
  • Pegasus do Google

Por que não perguntar ao ChatGPT sobre isso? Foi exatamente o que fiz para obter esta lista, esperando encontrar algumas opções para aqueles enfrentando avisos de "capacidade", ou outros que apenas querem experimentar algo novo. Nem todos são tão acessíveis ao público quanto o ChatGPT, mas, de acordo com o ChatGPT, essas são as melhores alternativas.

Vídeos recomendados

Bing da Microsoft

Motor de busca Bing redesenhado da Microsoft.

Antes de entrar nas escolhas listadas pela IA, a melhor alternativa ao ChatGPT é, bem, o ChatGPT. Microsoft recentemente

adicionou a IA em seu mecanismo de pesquisa Bing, e planeja lançar o recurso para o navegador Edge em breve.

Relacionado

  • OpenAI, fabricante do ChatGPT, enfrenta investigação da FTC sobre leis de proteção ao consumidor
  • O crescimento recorde do ChatGPT acabou de ser destronado por um novo aplicativo viral
  • OpenAI construindo nova equipe para impedir que a IA superinteligente se torne desonesta

Está apenas em pré-visualização, mas você ainda pode experimentar o novo chatbot AI em bing.com/new agora mesmo. A Microsoft diz que está limitando o número de consultas inicialmente, mas você pode junte-se à lista de espera do Bing ChatGPT para ser notificado quando a versão completa estiver disponível.

BERT do Google

BERT (Bidirectional Encoder Representations from Transformers) é um modelo de aprendizado de máquina desenvolvido pelo Google. Muitos resultados do ChatGPT mencionaram projetos do Google, que você verá mais adiante nesta lista.

O BERT é conhecido por suas habilidades de processamento de linguagem natural (NLP), como resposta a perguntas e análise de sentimentos. Ele usa o BookCorpus e a Wikipedia em inglês como modelos para referências de pré-treinamento, tendo aprendido 800 milhões e 2,5 bilhões de palavras, respectivamente.

O BERT foi anunciado pela primeira vez como um projeto de pesquisa de código aberto e trabalho acadêmico em outubro de 2018. A tecnologia já foi implementada na Pesquisa do Google. literatura antiga sobre o BERT compare-o com o ChatGPT da OpenAI em novembro de 2018, observando que a tecnologia do Google é profundamente bidirecional, o que ajuda a prever o texto recebido. Enquanto isso, o OpenAI GPT é unidirecional e só pode responder a consultas complexas.

Meena do Google

Meena é um chatbot que Google introduzido em janeiro de 2020 com a capacidade de conversar de maneira humana. Exemplos de suas funções incluem conversas simples que incluem piadas e trocadilhos interessantes, como Meena sugerindo que vacas estudem “Ciências bovinas” em Harvard.

Exemplo de chatbot do Google Meena.

Como alternativa direta ao GPT-2 da OpenAI, Meena tinha a capacidade de processar 8,5 vezes mais dados que seu concorrente na época. Sua rede neural compreende 2,6 parâmetros e é treinada em conversas de mídia social de domínio público. Meena também recebeu uma pontuação métrica em Sensibilidade e Especificidade Média (SSA) de 79%, tornando-o um dos chatbots mais inteligentes de seu tempo.

O código Meena está disponível em GitHub.

RoBERTa por Facebook

RoBERTa (Robustly Optimized BERT Pretraining Approach) é outra versão avançada do BERT original, que Facebook anunciou em julho de 2019.

Facebook criou este modelo de PNL com uma fonte maior de dados como seu modelo de pré-treinamento. RoBERTa usa CommonCrawl (CC-News), que inclui 63 milhões de artigos de notícias em inglês gerados entre setembro de 2016 e fevereiro de 2019, como seu conjunto de dados de 76 GB. Em comparação, o BERT original usa 16 GB de dados entre seus conjuntos de dados da Wikipedia em inglês e do BookCorpus, de acordo com o Facebook.

Silimar para XLNet, RoBERTa superou o BERT em um conjunto de conjuntos de dados de referência, conforme pesquisa do Facebook. Para obter esses resultados, a empresa não apenas usou uma fonte de dados maior, mas também pré-treinou seu modelo para um período de tempo mais longo.

Facebook fez RoBERTa Código aberto em setembro de 2019, e seu código é disponível no GitHub para experimentação da comunidade.

Venture Beat também mencionou GPT-2 entre os sistemas de IA emergentes durante esse tempo.

XLNet do Google

XLNET é um modelo de linguagem autorregressiva baseado em transformador desenvolvido por uma equipe de Pesquisadores do Google Brain e da Carnegie Mellon University. O modelo é essencialmente um BERT mais avançado e foi apresentado pela primeira vez em junho de 2019. O grupo descobriu que o XLNet é pelo menos 16% mais eficiente do que o BERT original, anunciado em 2018, capaz de vencer o BERT em um teste de 20 tarefas de PNL.

XLNet: um novo método de pré-treinamento para PNL que melhora significativamente o BERT em 20 tarefas (por exemplo, SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (código + modelos pré-treinados): https://t.co/kI4jsVzT1u

com Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 de junho de 2019

Com XLNet e BERT usando tokens “mascarados” para prever texto oculto, o XLNet melhora a eficiência acelerando a parte preditiva do processo. Por exemplo, Amazônia Alexa cientista de dados Aishwarya Srinivasan explicado que a XLNet é capaz de identificar a palavra “New” como associada ao termo “is a city” antes de prever o termo “York” como também associado a esse termo. Já o BERT precisa identificar as palavras “New” e “York” separadamente e depois associá-las ao termo “is a city”, por exemplo.

Notavelmente, GPT e GPT-2 são também mencionado neste explicador de 2019 como outros exemplos de modelos de linguagem autorregressivos.

Código XLNet e modelos pré-treinados são disponível no GitHub. O modelo é bem conhecido entre a comunidade de pesquisa em PNL.

DialoGPT da Microsoft Research

O DialoGPT (Dialogue Generative Pre-trained Transformer) é um modelo de linguagem autorregressiva que foi introduzido em novembro de 2019 pela Microsoft Research. Com semelhanças com o GPT-2, o modelo foi pré-treinado para gerar conversa humana. No entanto, sua principal fonte de informação foram 147 milhões de diálogos de vários turnos extraídos de tópicos do Reddit.

Exemplos de geração multi-turn DiabloGPT.

O evangelista-chefe da HumanFirst, Cobus Greyling, observou seu sucesso na implementação do DialoGPT no serviço de mensagens Telegram para dar vida ao modelo como um chatbot. Ele acrescentou que o uso do Amazon Web Services e do Amazon SageMaker pode ajudar a ajustar o código.

O código DialoGPT está disponível em GitHub.

ALBERTO do Google

ALBERT (A Lite BERT) é uma versão truncada do BERT original e foi desenvolvido pelo Google em dezembro de 2019.

Com o ALBERT, o Google limitou o número de parâmetros permitidos no modelo, introduzindo parâmetros com “incorporações de camada oculta”.

Desempenho da máquina no desafio RACE (compreensão de leitura semelhante ao SAT) do Google

Isso melhorou não apenas no modelo BERT, mas também no XLNet e no RoBERTa porque o ALBERT pode ser treinado em o mesmo conjunto de dados maior de informações usado para os dois modelos mais novos, ao mesmo tempo em que adere a modelos menores parâmetros. Essencialmente, o ALBERT trabalha apenas com os parâmetros necessários para suas funções, o que aumenta o desempenho e a precisão. O Google detalhou que descobriu que o ALBERT excedeu o BERT em 12 benchmarks de NLP, incluindo um benchmark de compreensão de leitura semelhante ao SAT.

Embora não seja mencionado pelo nome, o GPT está incluído na imagem do ALBERT no blog de pesquisa do Google.

O Google lançou o ALBERT como código aberto em janeiro de 2020 e foi implementado no TensorFlow do Google. O código está disponível em GitHub.

T5 pelo Google

T5 (Text-to-Text Transfer Transformer) é um modelo NLP apresentado pelo Google em 2019 que se baseia em uma série de modelos anteriores, incluindo GPT, BERT, XLNet, RoBERTa e ALBERT, entre outros. Acrescenta um conjunto de dados novo e exclusivo chamado Colossal Clean Crawled Corpus (C4), que permite ao transformador produzir e resultados contextuais do que outros conjuntos de dados em comparação com os rascunhos da Web do Common Crawl usados ​​para XLNet.
Pré-treinamento do Google T5 Text-To-Text Transfer Transformer.
O pré-treinamento T5 levou à criação de aplicativos de chatbot, incluindo InferKit Talk To Transformer e a masmorra de IA jogo. Os geradores de texto se assemelham ao ChatGPT, pois permitem que você gere conversas realistas com base no que a IA gera após seus prompts ou consultas iniciais.
O código T5 está disponível em GitHub.

CTRL por Salesforce

CTRL da Salesforce (Computational Trust and Reasoning Layer) foi um dos maiores modelos de linguagem lançados publicamente quando foi anunciado em setembro de 2019 pela Salesforce. O modelo de linguagem de 1,6 bilhão de parâmetros pode ser usado para analisar grandes corpos de texto de uma só vez, como aqueles associados a páginas da web. Alguns usos práticos em potencial incluem o emparelhamento com resenhas, classificações e atribuições.
Exemplo de atribuição de origem CTRL do Salesforce.
O modelo de linguagem CTRL pode diferenciar até a pontuação a intenção de uma consulta específica. Salesforce observou o modelo pode captar a diferença entre “O aquecimento global é uma mentira”. como uma opinião impopular e “o aquecimento global é uma mentira” como uma teoria da conspiração devido à diferença do período nas frases e redigir tópicos correspondentes no Reddit para cada.
Referências CTRL até 140 GB de dados para seu pré-treinamento de fontes, incluindo Wikipedia, Projeto Gutenberg, análises da Amazon e Reddit. Ele também faz referência a uma série de notícias, informações e recursos triviais internacionais.
O código CTRL está disponível em GitHub.

GShard do Google

GShard é um modelo gigante de tradução de idiomas que Google introduzido em junho de 2020 para fins de dimensionamento de rede neural. O modelo inclui 600 bilhões de parâmetros, o que permite grandes conjuntos de treinamento de dados de uma só vez. GShard é particularmente adepto de tradução de idiomas e sendo treinado para traduzir 100 idiomas para o inglês em quatro dias.

Blender pela Pesquisa de IA do Facebook

O Blender é um chatbot de código aberto que foi introduzido em abril de 2020 pela Pesquisa de IA do Facebook. Observou-se que o chatbot melhorou as habilidades de conversação em relação aos modelos concorrentes, com a capacidade de fornecer pontos de conversa envolventes, ouvir e mostrar compreensão da opinião de seu parceiro e mostrar empatia e personalidade.

Exemplo de chatbot do Blender.

O Blender foi comparado ao chatbot Meena do Google, que por sua vez foi comparado ao GPT-2 da OpenAI

O código do Blender está disponível em Parl.ai.

Pegasus do Google

Pegasus é um modelo de processamento de linguagem natural que foi apresentado pelo Google em dezembro de 2019. O Pegasus pode ser treinado para criar resumos e, semelhante a outros modelos como BERT, GPT-2, RoBERTa, XLNet, ALBERT e T5, pode ser ajustado para tarefas específicas. Pegasus foi testado em sua eficiência em resumir notícias, ciência, histórias, instruções, e-mails, patentes e projetos de lei em comparação com seres humanos.

O PEGASUS NLP foi comparado a um ser humano em termos de resumo de qualidade.

O código Pegasus está disponível em GitHub.

Recomendações dos editores

  • O Google Bard agora pode falar, mas pode abafar o ChatGPT?
  • ChatGPT: as últimas notícias, polêmicas e dicas que você precisa saber
  • O tráfego do site ChatGPT caiu pela primeira vez
  • O recurso de navegação Bing do ChatGPT foi desativado devido a uma falha de acesso pago
  • Os melhores chatbots de IA para experimentar: ChatGPT, Bard e mais