Les meilleures alternatives ChatGPT (selon ChatGPT)

ChatGPT est rapidement devenu le chouchou de l'IA générative, mais ce n'est pas le seul acteur de la partie. En plus de tous les autres outils d'IA disponibles qui font des choses comme la génération d'images, il y a aussi un certain nombre de concurrents directs avec ChatGPT - du moins je l'ai supposé.

Contenu

  • Bing de Microsoft
  • BERT par Google
  • Meena de Google
  • ROBERTa par Facebook
  • XLNet par Google
  • DialoGPT par Microsoft Research
  • ALBERT de Google
  • T5 par Google
  • CTRL par Salesforce
  • GShard de Google
  • Blender par Facebook AI Research
  • Pégase par Google

Pourquoi ne pas en parler à ChatGPT? C'est exactement ce que j'ai fait pour obtenir cette liste, en espérant trouver des options pour ceux face à des avis «à pleine capacité», ou d'autres qui veulent juste essayer quelque chose de nouveau. Tous ne sont pas aussi accessibles au public que ChatGPT, mais selon ChatGPT, ce sont les meilleures alternatives.

Vidéos recommandées

Bing de Microsoft

Le moteur de recherche Bing repensé de Microsoft.

Avant d'entrer dans les choix répertoriés par l'IA, la meilleure alternative à ChatGPT est, eh bien, ChatGPT. Microsoft récemment

a ajouté l'IA dans son moteur de recherche Bing, et il prévoit de déployer prochainement la fonctionnalité sur le navigateur Edge.

En rapport

  • Le fabricant de ChatGPT OpenAI fait face à une enquête de la FTC sur les lois de protection des consommateurs
  • La croissance record de ChatGPT vient d'être détrônée par une nouvelle application virale
  • OpenAI construit une nouvelle équipe pour empêcher l'IA super intelligente de devenir voyou

Ce n'est qu'en avant-première, mais vous pouvez toujours essayer le nouveau chatbot IA sur bing.com/nouveau tout de suite. Microsoft dit qu'il limite initialement le nombre de requêtes, mais vous pouvez rejoignez la liste d'attente Bing ChatGPT pour être averti lorsque la version complète sera disponible.

BERT par Google

BERT (Bidirectional Encoder Representations from Transformers) est un modèle d'apprentissage automatique développé par Google. De nombreux résultats de ChatGPT mentionnent des projets de Google, que vous verrez plus loin dans cette liste.

BERT est connu pour ses capacités de traitement du langage naturel (NLP), telles que la réponse aux questions et l'analyse des sentiments. Il utilise BookCorpus et Wikipedia anglais comme modèles pour les références de pré-formation, ayant appris respectivement 800 millions et 2,5 milliards de mots.

BERT a d'abord été annoncé comme un projet de recherche open source et document académique en octobre 2018. La technologie a depuis été implémentée dans la recherche Google. Littérature ancienne à propos de BERT, comparez-le à ChatGPT d'OpenAI en novembre 2018, notant que la technologie de Google est profondément bidirectionnelle, ce qui aide à prédire le texte entrant. Pendant ce temps, OpenAI GPT est unidirectionnel et ne peut répondre qu'aux requêtes complexes.

Meena de Google

Meena est un chatbot qui Google a présenté en janvier 2020 avec la capacité de converser de manière humaine. Des exemples de ses fonctions incluent des conversations simples qui incluent des blagues et des jeux de mots intéressants, comme Meena suggérant que les vaches étudient les « sciences bovines » à Harvard.

Exemple de chatbot Google Meena.

Comme alternative directe au GPT-2 d'OpenAI, Meena avait la capacité de traiter 8,5 fois plus de données que son concurrent de l'époque. Son réseau neuronal comprend 2,6 paramètres et il est entraîné sur les conversations des médias sociaux du domaine public. Meena a également reçu un score métrique en sensibilité et spécificité moyenne (SSA) de 79 %, ce qui en fait l'un des chatbots les plus intelligents de son temps.

Le code Meena est disponible sur GitHub.

ROBERTa par Facebook

ROBERTa (Robustly Optimized BERT Pretraining Approach) est une autre version avancée du BERT original, qui Facebook a annoncé en juillet 2019.

Facebook a créé ce modèle NLP avec une plus grande source de données comme modèle de pré-formation. RoBERTa utilise CommonCrawl (CC-News), qui comprend 63 millions d'articles de presse en anglais générés entre septembre 2016 et février 2019, comme ensemble de données de 76 Go. En comparaison, le BERT d'origine utilise 16 Go de données entre ses ensembles de données Wikipedia anglais et BookCorpus, selon Facebook.

Similaire à XLNet, RoBERTa a battu BERT dans un ensemble d'ensembles de données de référence, selon les recherches de Facebook. Pour obtenir ces résultats, l'entreprise a non seulement utilisé une source de données plus importante, mais a également pré-entraîné son modèle pour une période plus longue.

Facebook a créé RoBERTa Open source en septembre 2019, et son code est disponible sur GitHub pour une expérimentation communautaire.

VentureBeat a également mentionné GPT-2 parmi les systèmes d'IA émergents à cette époque.

XLNet par Google

XLNET est un modèle de langage autorégressif basé sur un transformateur développé par une équipe de Chercheurs de Google Brain et de l'Université Carnegie Mellon. Le modèle est essentiellement un BERT plus avancé et a été présenté pour la première fois en juin 2019. Le groupe a trouvé que XLNet était au moins 16 % plus efficace que le BERT original, annoncé en 2018, capable de battre le BERT dans un test de 20 tâches NLP.

XLNet: une nouvelle méthode de pré-formation pour la PNL qui améliore considérablement le BERT sur 20 tâches (par exemple, SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (code + modèles pré-entraînés): https://t.co/kI4jsVzT1u

avec Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 juin 2019

Avec XLNet et BERT utilisant à la fois des jetons «masqués» pour prédire le texte caché, XLNet améliore l'efficacité en accélérant la partie prédictive du processus. Par exemple, Amazon Alexa scientifique des données Aishwarya Srinivasan expliqué que XLNet est en mesure d'identifier le mot « Nouveau » comme étant associé au terme « est une ville » avant de prédire le terme « York » comme étant également associé à ce terme. Pendant ce temps, le BERT doit identifier les mots "New" et "York" séparément, puis les associer au terme "est une ville", par exemple.

Notamment, GPT et GPT-2 sont également mentionné dans cet explicateur de 2019 comme d'autres exemples de modèles de langage autorégressifs.

Le code XLNet et les modèles pré-entraînés sont disponible sur GitHub. Le modèle est bien connu parmi la communauté de recherche en PNL.

DialoGPT par Microsoft Research

Le DialoGPT (Dialogue Generative Pre-trained Transformer) est un modèle de langage autorégressif qui a été présenté en novembre 2019 par Microsoft Research. Avec des similitudes avec GPT-2, le modèle a été pré-entraîné pour générer une conversation humaine. Cependant, sa principale source d'informations était 147 millions de dialogues multi-tours extraits des fils de discussion Reddit.

Exemples de génération multi-tours DiabloGPT.

L'évangéliste en chef de HumanFirst, Cobus Greyling, a noté son succès dans la mise en œuvre de DialoGPT dans le service de messagerie Telegram pour donner vie au modèle en tant que chatbot. Il a ajouté que l'utilisation d'Amazon Web Services et d'Amazon SageMaker peut aider à affiner le code.

Le code DialoGPT est disponible sur GitHub.

ALBERT de Google

ALBERT (Un Lite BERT) est une version tronquée du BERT original et a été développé par Google en décembre 2019.

Avec ALBERT, Google a limité le nombre de paramètres autorisés dans le modèle en introduisant des paramètres avec des "intégrations de couches cachées".

Performances de la machine sur le défi RACE (compréhension de lecture de type SAT) par Google

Cela s'est amélioré non seulement sur le modèle BERT mais aussi sur XLNet et RoBERTa car ALBERT peut être formé sur le même ensemble de données plus important utilisé pour les deux modèles plus récents tout en respectant des paramètres. Essentiellement, ALBERT ne travaille qu'avec les paramètres nécessaires à ses fonctions, ce qui augmente les performances et la précision. Google a précisé qu'il avait constaté qu'ALBERT dépassait BERT sur 12 critères de référence NLP, y compris un critère de compréhension de lecture de type SAT.

Bien qu'il ne soit pas mentionné par son nom, GPT est inclus dans l'imagerie de l'ALBERT sur le blog de recherche de Google.

Google a publié ALBERT en open source en janvier 2020, et il a été implémenté en plus de TensorFlow de Google. Le code est disponible sur GitHub.

T5 par Google

T5 (Text-to-Text Transfer Transformer) est un modèle NLP introduit par Google en 2019 qui emprunte à une multitude de modèles antérieurs, notamment GPT, BERT, XLNet, RoBERTa et ALBERT, entre autres. Il ajoute un ensemble de données nouveau et unique appelé Colossal Clean Crawled Corpus (C4), qui permet au transformateur de produire des et des résultats contextuels que d'autres ensembles de données par rapport aux grattages Web Common Crawl utilisés pour XLNet.
Pré-formation Google T5 Text-to-Text Transfer Transformer.
La préformation T5 a conduit à la création d'applications de chatbot, notamment InferKit Parler au transformateur et le Donjon IA jeu. Les générateurs de texte ressemblent à ChatGPT en ce sens qu'ils vous permettent de générer des conversations réalistes basées sur ce que l'IA génère après vos invites ou requêtes initiales.
Le code T5 est disponible sur GitHub.

CTRL par Salesforce

CTRL de Salesforce (Computational Trust and Reasoning Layer) était l'un des plus grands modèles de langage rendu public lorsqu'il a été annoncé en septembre 2019 par Salesforce. Le modèle de langage de 1,6 milliard de paramètres peut être utilisé pour analyser de grands corps de texte à la fois, tels que ceux associés aux pages Web. Certaines utilisations pratiques potentielles incluent le jumelage avec des critiques, des évaluations et des attributions.
Exemple d'attribution de source Salesforce CTRL.
Le modèle de langage CTRL peut différencier jusqu'à la ponctuation l'intention d'une requête spécifique. Salesforce noté le modèle peut faire la différence entre « le réchauffement climatique est un mensonge ». comme une opinion impopulaire et « Le réchauffement climatique est un mensonge" comme une théorie du complot en raison de la différence de période dans les phrases et rédigez les fils de discussion Reddit correspondants pour chaque.
Références CTRL jusqu'à 140 Go de données pour sa pré-formation à partir de sources telles que Wikipedia, Project Gutenberg, Amazon reviews et Reddit. Il fait également référence à un certain nombre de nouvelles internationales, d'informations et de ressources triviales.
Le code CTRL est disponible sur GitHub.

GShard de Google

GShard est un modèle géant de traduction de langue ce Google a présenté en juin 2020 à des fins de mise à l'échelle du réseau de neurones. Le modèle comprend 600 milliards de paramètres, ce qui permet d'effectuer simultanément de grands ensembles de données. GShard est particulièrement doué pour la traduction de la langue et être formé pour traduire 100 langues en anglais en quatre jours.

Blender par Facebook AI Research

Blender est un chatbot open-source qui a été introduit en Avril 2020 par Facebook AI Research. Il a été noté que le chatbot avait amélioré les compétences conversationnelles par rapport aux modèles concurrents, avec la capacité de fournir engager des points de discussion, écouter et montrer sa compréhension de la contribution de son partenaire, et faire preuve d'empathie et de personnalité.

Exemple de chatbot Blender.

Blender a été comparé au chatbot Meena de Google, qui à son tour a été comparé au GPT-2 d'OpenAI

Le code Blender est disponible sur Parl.ai.

Pégase par Google

Pegasus est un modèle de traitement du langage naturel qui a été introduit par Google en décembre 2019. Pegasus peut être formé pour créer des résumés et, comme d'autres modèles tels que BERT, GPT-2, RoBERTa, XLNet, ALBERT et T5, il peut être adapté à des tâches spécifiques. Pegasus a été testé sur son efficacité à résumer les actualités, la science, les histoires, les instructions, les e-mails, les brevets et les projets de loi par rapport aux sujets humains.

Le PEGASUS NLP a été comparé à un humain en termes de qualité de synthèse.

Le code Pegasus est disponible sur GitHub.

Recommandations des éditeurs

  • Google Bard peut désormais parler, mais peut-il noyer ChatGPT?
  • ChatGPT: les dernières actualités, controverses et astuces à connaître
  • Le trafic du site ChatGPT a chuté pour la première fois
  • La fonctionnalité de navigation Bing de ChatGPT est désactivée en raison d'une faille d'accès au mur payant
  • Les meilleurs chatbots IA à essayer: ChatGPT, Bard, et plus