ChatGPT est rapidement devenu le chouchou de l'IA générative, mais ce n'est pas le seul acteur de la partie. En plus de tous les autres outils d'IA disponibles qui font des choses comme la génération d'images, il y a aussi un certain nombre de concurrents directs avec ChatGPT - du moins je l'ai supposé.
Contenu
- Bing de Microsoft
- BERT par Google
- Meena de Google
- ROBERTa par Facebook
- XLNet par Google
- DialoGPT par Microsoft Research
- ALBERT de Google
- T5 par Google
- CTRL par Salesforce
- GShard de Google
- Blender par Facebook AI Research
- Pégase par Google
Pourquoi ne pas en parler à ChatGPT? C'est exactement ce que j'ai fait pour obtenir cette liste, en espérant trouver des options pour ceux face à des avis «à pleine capacité», ou d'autres qui veulent juste essayer quelque chose de nouveau. Tous ne sont pas aussi accessibles au public que ChatGPT, mais selon ChatGPT, ce sont les meilleures alternatives.
Vidéos recommandées
Bing de Microsoft
Avant d'entrer dans les choix répertoriés par l'IA, la meilleure alternative à ChatGPT est, eh bien, ChatGPT. Microsoft récemment
a ajouté l'IA dans son moteur de recherche Bing, et il prévoit de déployer prochainement la fonctionnalité sur le navigateur Edge.En rapport
- Le fabricant de ChatGPT OpenAI fait face à une enquête de la FTC sur les lois de protection des consommateurs
- La croissance record de ChatGPT vient d'être détrônée par une nouvelle application virale
- OpenAI construit une nouvelle équipe pour empêcher l'IA super intelligente de devenir voyou
Ce n'est qu'en avant-première, mais vous pouvez toujours essayer le nouveau chatbot IA sur bing.com/nouveau tout de suite. Microsoft dit qu'il limite initialement le nombre de requêtes, mais vous pouvez rejoignez la liste d'attente Bing ChatGPT pour être averti lorsque la version complète sera disponible.
BERT par Google
BERT (Bidirectional Encoder Representations from Transformers) est un modèle d'apprentissage automatique développé par Google. De nombreux résultats de ChatGPT mentionnent des projets de Google, que vous verrez plus loin dans cette liste.
BERT est connu pour ses capacités de traitement du langage naturel (NLP), telles que la réponse aux questions et l'analyse des sentiments. Il utilise BookCorpus et Wikipedia anglais comme modèles pour les références de pré-formation, ayant appris respectivement 800 millions et 2,5 milliards de mots.
BERT a d'abord été annoncé comme un projet de recherche open source et document académique en octobre 2018. La technologie a depuis été implémentée dans la recherche Google. Littérature ancienne à propos de BERT, comparez-le à ChatGPT d'OpenAI en novembre 2018, notant que la technologie de Google est profondément bidirectionnelle, ce qui aide à prédire le texte entrant. Pendant ce temps, OpenAI GPT est unidirectionnel et ne peut répondre qu'aux requêtes complexes.
Meena de Google
Meena est un chatbot qui Google a présenté en janvier 2020 avec la capacité de converser de manière humaine. Des exemples de ses fonctions incluent des conversations simples qui incluent des blagues et des jeux de mots intéressants, comme Meena suggérant que les vaches étudient les « sciences bovines » à Harvard.
Comme alternative directe au GPT-2 d'OpenAI, Meena avait la capacité de traiter 8,5 fois plus de données que son concurrent de l'époque. Son réseau neuronal comprend 2,6 paramètres et il est entraîné sur les conversations des médias sociaux du domaine public. Meena a également reçu un score métrique en sensibilité et spécificité moyenne (SSA) de 79 %, ce qui en fait l'un des chatbots les plus intelligents de son temps.
Le code Meena est disponible sur GitHub.
ROBERTa par Facebook
ROBERTa (Robustly Optimized BERT Pretraining Approach) est une autre version avancée du BERT original, qui Facebook a annoncé en juillet 2019.
Facebook a créé ce modèle NLP avec une plus grande source de données comme modèle de pré-formation. RoBERTa utilise CommonCrawl (CC-News), qui comprend 63 millions d'articles de presse en anglais générés entre septembre 2016 et février 2019, comme ensemble de données de 76 Go. En comparaison, le BERT d'origine utilise 16 Go de données entre ses ensembles de données Wikipedia anglais et BookCorpus, selon Facebook.
Similaire à XLNet, RoBERTa a battu BERT dans un ensemble d'ensembles de données de référence, selon les recherches de Facebook. Pour obtenir ces résultats, l'entreprise a non seulement utilisé une source de données plus importante, mais a également pré-entraîné son modèle pour une période plus longue.
Facebook a créé RoBERTa Open source en septembre 2019, et son code est disponible sur GitHub pour une expérimentation communautaire.
VentureBeat a également mentionné GPT-2 parmi les systèmes d'IA émergents à cette époque.
XLNet par Google
XLNET est un modèle de langage autorégressif basé sur un transformateur développé par une équipe de Chercheurs de Google Brain et de l'Université Carnegie Mellon. Le modèle est essentiellement un BERT plus avancé et a été présenté pour la première fois en juin 2019. Le groupe a trouvé que XLNet était au moins 16 % plus efficace que le BERT original, annoncé en 2018, capable de battre le BERT dans un test de 20 tâches NLP.
XLNet: une nouvelle méthode de pré-formation pour la PNL qui améliore considérablement le BERT sur 20 tâches (par exemple, SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (code + modèles pré-entraînés): https://t.co/kI4jsVzT1u
avec Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20 juin 2019
Avec XLNet et BERT utilisant à la fois des jetons «masqués» pour prédire le texte caché, XLNet améliore l'efficacité en accélérant la partie prédictive du processus. Par exemple, Amazon Alexa scientifique des données Aishwarya Srinivasan expliqué que XLNet est en mesure d'identifier le mot « Nouveau » comme étant associé au terme « est une ville » avant de prédire le terme « York » comme étant également associé à ce terme. Pendant ce temps, le BERT doit identifier les mots "New" et "York" séparément, puis les associer au terme "est une ville", par exemple.
Notamment, GPT et GPT-2 sont également mentionné dans cet explicateur de 2019 comme d'autres exemples de modèles de langage autorégressifs.
Le code XLNet et les modèles pré-entraînés sont disponible sur GitHub. Le modèle est bien connu parmi la communauté de recherche en PNL.
DialoGPT par Microsoft Research
Le DialoGPT (Dialogue Generative Pre-trained Transformer) est un modèle de langage autorégressif qui a été présenté en novembre 2019 par Microsoft Research. Avec des similitudes avec GPT-2, le modèle a été pré-entraîné pour générer une conversation humaine. Cependant, sa principale source d'informations était 147 millions de dialogues multi-tours extraits des fils de discussion Reddit.
L'évangéliste en chef de HumanFirst, Cobus Greyling, a noté son succès dans la mise en œuvre de DialoGPT dans le service de messagerie Telegram pour donner vie au modèle en tant que chatbot. Il a ajouté que l'utilisation d'Amazon Web Services et d'Amazon SageMaker peut aider à affiner le code.
Le code DialoGPT est disponible sur GitHub.
ALBERT de Google
ALBERT (Un Lite BERT) est une version tronquée du BERT original et a été développé par Google en décembre 2019.
Avec ALBERT, Google a limité le nombre de paramètres autorisés dans le modèle en introduisant des paramètres avec des "intégrations de couches cachées".
Cela s'est amélioré non seulement sur le modèle BERT mais aussi sur XLNet et RoBERTa car ALBERT peut être formé sur le même ensemble de données plus important utilisé pour les deux modèles plus récents tout en respectant des paramètres. Essentiellement, ALBERT ne travaille qu'avec les paramètres nécessaires à ses fonctions, ce qui augmente les performances et la précision. Google a précisé qu'il avait constaté qu'ALBERT dépassait BERT sur 12 critères de référence NLP, y compris un critère de compréhension de lecture de type SAT.
Bien qu'il ne soit pas mentionné par son nom, GPT est inclus dans l'imagerie de l'ALBERT sur le blog de recherche de Google.
Google a publié ALBERT en open source en janvier 2020, et il a été implémenté en plus de TensorFlow de Google. Le code est disponible sur GitHub.
T5 par Google
CTRL par Salesforce
GShard de Google
GShard est un modèle géant de traduction de langue ce Google a présenté en juin 2020 à des fins de mise à l'échelle du réseau de neurones. Le modèle comprend 600 milliards de paramètres, ce qui permet d'effectuer simultanément de grands ensembles de données. GShard est particulièrement doué pour la traduction de la langue et être formé pour traduire 100 langues en anglais en quatre jours.
Blender par Facebook AI Research
Blender est un chatbot open-source qui a été introduit en Avril 2020 par Facebook AI Research. Il a été noté que le chatbot avait amélioré les compétences conversationnelles par rapport aux modèles concurrents, avec la capacité de fournir engager des points de discussion, écouter et montrer sa compréhension de la contribution de son partenaire, et faire preuve d'empathie et de personnalité.
Blender a été comparé au chatbot Meena de Google, qui à son tour a été comparé au GPT-2 d'OpenAI
Le code Blender est disponible sur Parl.ai.
Pégase par Google
Pegasus est un modèle de traitement du langage naturel qui a été introduit par Google en décembre 2019. Pegasus peut être formé pour créer des résumés et, comme d'autres modèles tels que BERT, GPT-2, RoBERTa, XLNet, ALBERT et T5, il peut être adapté à des tâches spécifiques. Pegasus a été testé sur son efficacité à résumer les actualités, la science, les histoires, les instructions, les e-mails, les brevets et les projets de loi par rapport aux sujets humains.
Le code Pegasus est disponible sur GitHub.
Recommandations des éditeurs
- Google Bard peut désormais parler, mais peut-il noyer ChatGPT?
- ChatGPT: les dernières actualités, controverses et astuces à connaître
- Le trafic du site ChatGPT a chuté pour la première fois
- La fonctionnalité de navigation Bing de ChatGPT est désactivée en raison d'une faille d'accès au mur payant
- Les meilleurs chatbots IA à essayer: ChatGPT, Bard, et plus