Die besten ChatGPT-Alternativen (laut ChatGPT)

ChatGPT hat sich schnell zum Liebling der generativen KI entwickelt, ist aber nicht der einzige Spieler im Spiel. Zusätzlich zu alle anderen KI-Tools da draußen die Dinge wie die Bildgenerierung erledigen, es gibt auch eine Reihe direkter Konkurrenten zu ChatGPT – so habe ich zumindest angenommen.

Inhalt

  • Bing von Microsoft
  • BERT von Google
  • Meena von Google
  • RoBERTa von Facebook
  • XLNet von Google
  • DialoGPT von Microsoft Research
  • ALBERT von Google
  • T5 von Google
  • STRG von Salesforce
  • GShard von Google
  • Blender von Facebook AI Research
  • Pegasus von Google

Warum fragen Sie nicht ChatGPT danach? Genau das habe ich getan, um diese Liste zu erhalten, in der Hoffnung, einige Optionen dafür zu finden mit Hinweisen über die „ausgelastete Kapazität“ konfrontiert, oder andere, die einfach etwas Neues ausprobieren möchten. Nicht alle davon sind für die Öffentlichkeit so zugänglich wie ChatGPT, aber laut ChatGPT sind dies die besten Alternativen.

Empfohlene Videos

Bing von Microsoft

Microsofts neu gestaltete Bing-Suchmaschine.

Bevor wir auf die von der KI aufgelisteten Tipps eingehen, ist ChatGPT die beste Alternative zu ChatGPT. Microsoft kürzlich

fügte die KI seiner Bing-Suchmaschine hinzu, und es ist geplant, die Funktion bald im Edge-Browser einzuführen.

Verwandt

  • Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
  • Das Rekordwachstum von ChatGPT wurde gerade durch eine neue virale App entthront
  • OpenAI baut neues Team auf, um zu verhindern, dass superintelligente KI abtrünnig wird

Es ist zwar nur in der Vorschau, aber Sie können den neuen KI-Chatbot trotzdem unter ausprobieren bing.com/new im Augenblick. Microsoft gibt an, die Anzahl der Abfragen zunächst zu begrenzen, aber Sie können dies tun Treten Sie der Bing ChatGPT-Warteliste bei um benachrichtigt zu werden, wenn die Vollversion verfügbar ist.

BERT von Google

BERT (Bidirektionale Encoder-Repräsentationen von Transformers) ist ein von Google entwickeltes maschinelles Lernmodell. In vielen ChatGPT-Ergebnissen wurden Projekte von Google erwähnt, die Sie später in dieser Liste sehen werden.

BERT ist bekannt für seine Fähigkeiten zur Verarbeitung natürlicher Sprache (NLP), wie etwa die Beantwortung von Fragen und die Stimmungsanalyse. Es verwendet BookCorpus und die englische Wikipedia als Modelle für Referenzen vor dem Training und hat 800 Millionen bzw. 2,5 Milliarden Wörter gelernt.

BERT wurde erstmals als bekannt gegeben Open-Source-Forschungsprojekt Und wissenschaftliche Arbeit im Oktober 2018. Die Technologie wurde inzwischen in die Google-Suche implementiert. Frühe Literatur über BERT verglich es mit ChatGPT von OpenAI im November 2018 und stellte fest, dass die Technologie von Google tief bidirektional ist, was bei der Vorhersage eingehender Texte hilft. Mittlerweile ist OpenAI GPT unidirektional und kann nur auf komplexe Anfragen antworten.

Meena von Google

Meena ist ein Chatbot Google eingeführt im Januar 2020 mit der Fähigkeit, sich auf menschenähnliche Weise zu unterhalten. Beispiele für seine Funktionen sind einfache Gespräche, die interessante Witze und Wortspiele beinhalten, wie zum Beispiel Meena, der Kühen vorschlägt, in Harvard „Rinderwissenschaften“ zu studieren.

Beispiel für einen Google Meena-Chatbot.

Als direkte Alternative zu GPT-2 von OpenAI war Meena in der Lage, 8,5-mal so viele Daten zu verarbeiten wie sein damaliger Konkurrent. Sein neuronales Netzwerk umfasst 2,6 Parameter und es wird auf öffentlich zugängliche Social-Media-Konversationen trainiert. Meena erhielt außerdem einen metrischen Wert im Sensibleness and Specificity Average (SSA) von 79 %, was ihn zu einem der intelligentesten Chatbots seiner Zeit macht.

Der Meena-Code ist verfügbar unter GitHub.

RoBERTa von Facebook

RoBERTa (Robustly Optimized BERT Pretraining Approach) ist eine weitere erweiterte Version des ursprünglichen BERT Facebook angekündigt im Juli 2019.

Facebook hat dieses NLP-Modell mit einer größeren Datenquelle als Vortrainingsmodell erstellt. Als 76-GB-Datensatz verwendet RoBERTa CommonCrawl (CC-News), das 63 Millionen englische Nachrichtenartikel enthält, die zwischen September 2016 und Februar 2019 generiert wurden. Im Vergleich dazu verwendet das ursprüngliche BERT laut Facebook 16 GB Daten zwischen seinen englischen Wikipedia- und BookCorpus-Datensätzen.

Im Vergleich zu XLNet schlug RoBERTa BERT in einer Reihe von Benchmark-Datensätzen, wie aus einer Facebook-Recherche hervorgeht. Um diese Ergebnisse zu erhalten, nutzte das Unternehmen nicht nur eine größere Datenquelle, sondern trainierte sein Modell auch vorab längerer Zeitraum.

Facebook hat RoBERTa gemacht Open Source im September 2019, und sein Code ist verfügbar auf GitHub für gemeinschaftliche Experimente.

VentureBeat erwähnte in dieser Zeit auch GPT-2 unter den aufkommenden KI-Systemen.

XLNet von Google

XLNET ist ein transformatorbasiertes autoregressives Sprachmodell, das von einem Team von entwickelt wurde Forscher von Google Brain und der Carnegie Mellon University. Das Modell ist im Wesentlichen ein fortschrittlicheres BERT und wurde erstmals im Juni 2019 vorgestellt. Die Gruppe befand, dass XLNet mindestens ist 16 % effizienter als das ursprüngliche BERT, das 2018 angekündigt wurde, und konnte BERT in einem Test mit 20 NLP-Aufgaben schlagen.

XLNet: eine neue Vortrainingsmethode für NLP, die BERT bei 20 Aufgaben (z. B. SQuAD, GLUE, RACE) deutlich verbessert.

arxiv: https://t.co/C1tFMwZvyW

Github (Code + vorab trainierte Modelle): https://t.co/kI4jsVzT1u

mit Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

– Quoc Le (@quocleix) 20. Juni 2019

Da sowohl XLNet als auch BERT „maskierte“ Token verwenden, um versteckten Text vorherzusagen, verbessert XLNet die Effizienz, indem es den Vorhersageteil des Prozesses beschleunigt. Zum Beispiel Amazon Alexa Datenwissenschaftlerin Aishwarya Srinivasan erklärt dass XLNet in der Lage ist, das Wort „Neu“ als mit dem Begriff „ist eine Stadt“ verbunden zu identifizieren, bevor vorhergesagt wird, dass der Begriff „York“ ebenfalls mit diesem Begriff verbunden ist. In der Zwischenzeit muss BERT die Wörter „New“ und „York“ getrennt identifizieren und sie dann beispielsweise mit dem Begriff „ist eine Stadt“ verknüpfen.

Insbesondere GPT und GPT-2 sind es auch erwähnt in diesem Erklärer aus dem Jahr 2019 als weitere Beispiele für autoregressive Sprachmodelle.

XLNet-Code und vorab trainierte Modelle sind verfügbar auf GitHub. Das Modell ist in der NLP-Forschungsgemeinschaft bekannt.

DialoGPT von Microsoft Research

Der DialoGPT (Dialogue Generative Pre-trained Transformer) ist ein autoregressives Sprachmodell, das wurde vorgestellt im November 2019 von Microsoft Research. Mit Ähnlichkeiten zu GPT-2 wurde das Modell vorab trainiert, um eine menschenähnliche Konversation zu erzeugen. Die Hauptinformationsquelle waren jedoch 147 Millionen Multi-Turn-Dialoge, die aus Reddit-Threads herausgesucht wurden.

Beispiele für die DiabloGPT-Multiturn-Generierung.

HumanFirst-Chefevangelist Cobus Greyling hat darauf hingewiesen sein Erfolg bei der Implementierung von DialoGPT in den Messaging-Dienst Telegram, um das Modell als Chatbot zum Leben zu erwecken. Er fügte hinzu, dass die Verwendung von Amazon Web Services und Amazon SageMaker bei der Feinabstimmung des Codes hilfreich sein kann.

Der DialoGPT-Code ist verfügbar unter GitHub.

ALBERT von Google

ALBERT (Ein leichter BERT) ist eine verkürzte Version des ursprünglichen BERT und wurde im Dezember 2019 von Google entwickelt.

Mit ALBERT begrenzte Google die Anzahl der im Modell zulässigen Parameter, indem es Parameter mit „verborgenen Ebeneneinbettungen“ einführte.

Maschinenleistung bei der RACE-Challenge (SAT-ähnliches Leseverständnis) von Google

Dies verbesserte nicht nur das BERT-Modell, sondern auch XLNet und RoBERTa, da ALBERT trainiert werden kann derselbe größere Datensatz an Informationen, der für die beiden neueren Modelle verwendet wurde, während der kleinere beibehalten wird Parameter. ALBERT arbeitet im Wesentlichen nur mit den für seine Funktionen notwendigen Parametern, was die Leistung und Genauigkeit erhöht. Google gab detailliert an, dass ALBERT bei 12 NLP-Benchmarks, einschließlich eines SAT-ähnlichen Leseverständnis-Benchmarks, BERT übertraf.

Obwohl nicht namentlich erwähnt, ist GPT in der Abbildung für ALBERT im Research-Blog von Google enthalten.

Google hat ALBERT im Januar 2020 als Open Source veröffentlicht und es wurde auf Googles TensorFlow implementiert. Der Code ist verfügbar unter GitHub.

T5 von Google

T5 (Text-to-Text Transfer Transformer) ist ein NLP-Modell von Google eingeführt im Jahr 2019, das Anleihen bei einer Vielzahl früherer Modelle macht, darunter unter anderem GPT, BERT, XLNet, RoBERTa und ALBERT. Es fügt eine hinzu neuer und einzigartiger Datensatz namens Colossal Clean Crawled Corpus (C4), der es dem Transformator ermöglicht, eine höhere Qualität zu erzeugen und kontextbezogene Ergebnisse als andere Datensätze im Vergleich zu den dafür verwendeten Common Crawl Web Scrapes XLNet.
Vorschulung für den Google T5 Text-To-Text Transfer Transformer.
Das T5-Vortraining führte zur Erstellung von Chatbot-Anwendungen, darunter InferKit Sprechen Sie mit Transformer und das KI-Dungeon Spiel. Die Textgeneratoren ähneln ChatGPT insofern, als sie es Ihnen ermöglichen, realistische Konversationen basierend auf dem zu generieren, was die KI nach Ihren ersten Eingabeaufforderungen oder Abfragen generiert.
Der T5-Code ist verfügbar unter GitHub.

STRG von Salesforce

CTRL von Salesforce (Computational Trust and Reasoning Layer) war damals eines der größten öffentlich veröffentlichten Sprachmodelle wurde vorgestellt im September 2019 von Salesforce. Mit dem Sprachmodell mit 1,6 Milliarden Parametern können große Textmengen auf einmal analysiert werden, beispielsweise solche, die mit Webseiten verknüpft sind. Zu den potenziellen praktischen Einsatzmöglichkeiten gehört die Verknüpfung mit Rezensionen, Bewertungen und Zuschreibungen.
Beispiel für die Zuweisung einer Salesforce-STRG-Quelle.
Das CTRL-Sprachmodell kann die Absicht einer bestimmten Abfrage bis hin zur Interpunktion unterscheiden. Salesforce notiert Das Modell kann den Unterschied zwischen „Die globale Erwärmung ist eine Lüge“ erkennen. als unpopuläre Meinung und „Die globale Erwärmung ist ein „Lüge“ als Verschwörungstheorie aufgrund unterschiedlicher Perioden in den Phrasen und verfassen entsprechende Reddit-Threads dafür jede.
CTRL-Referenzen Bis zu 140 GB Daten für das Vortraining aus Quellen, darunter Wikipedia, Project Gutenberg, Amazon-Rezensionen und Reddit. Außerdem wird auf eine Reihe internationaler Nachrichten, Informationen und Wissenswertes verwiesen.
Der CTRL-Code ist verfügbar unter GitHub.

GShard von Google

GShard ist ein riesiges Sprachübersetzungsmodell Das Google eingeführt im Juni 2020 zum Zweck der Skalierung neuronaler Netze. Das Modell umfasst 600 Milliarden Parameter, was das gleichzeitige Training großer Datenmengen ermöglicht. GShard ist besonders geschickt darin Sprachübersetzung und darin geschult, in vier Tagen 100 Sprachen ins Englische zu übersetzen.

Blender von Facebook AI Research

Blender ist ein Open-Source-Chatbot, der eingeführt wurde April 2020 von Facebook AI Research. Es wurde festgestellt, dass der Chatbot im Vergleich zu Mitbewerbermodellen über verbesserte Konversationsfähigkeiten und die Fähigkeit zur Bereitstellung verfügt fesselnde Gesprächsthemen, hören Sie zu und zeigen Sie Verständnis für die Beiträge des Partners und zeigen Sie Empathie und Persönlichkeit.

Beispiel für einen Blender-Chatbot.

Blender wurde mit Googles Meena-Chatbot verglichen, der wiederum mit OpenAIs GPT-2 verglichen wurde

Der Blender-Code ist verfügbar unter Parl.ai.

Pegasus von Google

Pegasus ist ein Modell zur Verarbeitung natürlicher Sprache von Google eingeführt im Dezember 2019. Pegasus kann für die Erstellung von Zusammenfassungen trainiert werden und kann, ähnlich wie andere Modelle wie BERT, GPT-2, RoBERTa, XLNet, ALBERT und T5, auf bestimmte Aufgaben abgestimmt werden. Pegasus wurde im Vergleich zu menschlichen Probanden auf seine Effizienz beim Zusammenfassen von Nachrichten, Wissenschaft, Geschichten, Anweisungen, E-Mails, Patenten und Gesetzesentwürfen getestet.

Das PEGASUS NLP wurde hinsichtlich der Zusammenfassungsqualität mit einem Menschen verglichen.

Der Pegasus-Code ist verfügbar unter GitHub.

Empfehlungen der Redaktion

  • Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
  • ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
  • Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen
  • Die Bing-Browsing-Funktion von ChatGPT wurde aufgrund eines Paywall-Zugriffsfehlers deaktiviert
  • Die besten KI-Chatbots zum Ausprobieren: ChatGPT, Bard und mehr