De bästa ChatGPT-alternativen (enligt ChatGPT)

ChatGPT har snabbt blivit älsklingen av generativ AI, men det är knappast den enda spelaren i spelet. Dessutom alla andra AI-verktyg där ute som gör saker som bildgenerering, det finns också ett antal direkta konkurrenter med ChatGPT - eller så antog jag.

Innehåll

  • Bing från Microsoft
  • BERT från Google
  • Meena från Google
  • ROBERTA av Facebook
  • XLNet från Google
  • DialoGPT av Microsoft Research
  • ALBERT från Google
  • T5 från Google
  • CTRL av Salesforce
  • GShard från Google
  • Blender från Facebook AI Research
  • Pegasus från Google

Varför inte fråga ChatGPT om det? Det är precis vad jag gjorde för att få den här listan, i hopp om att hitta några alternativ för dem möter "vid kapacitet" meddelanden, eller andra som bara vill prova något nytt. Alla dessa är inte lika tillgängliga för allmänheten som ChatGPT, men enligt ChatGPT är dessa de bästa alternativen.

Rekommenderade videor

Bing från Microsoft

Microsofts omgjorda Bing-sökmotor.

Innan du går in i valen som listas av AI, är det bästa alternativet till ChatGPT, ja, ChatGPT. Microsoft nyligen

lade till AI i sin Bing-sökmotor, och den planerar att rulla ut funktionen till Edge-webbläsaren snart.

Relaterad

  • ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
  • ChatGPTs rekordtillväxt avsattes precis av en ny viral app
  • OpenAI bygger ett nytt team för att förhindra att superintelligent AI blir oseriöst

Det är bara i förhandsvisning, men du kan fortfarande prova den nya AI-chatboten på bing.com/new just nu. Microsoft säger att det begränsar antalet frågor initialt, men du kan gå med på Bing ChatGPTs väntelista meddelas när den fullständiga versionen är tillgänglig.

BERT från Google

BERT (Bidirectional Encoder Representations from Transformers) är en maskininlärningsmodell utvecklad av Google. Många av ChatGPTs resultat nämnde projekt av Google, som du kommer att se längre fram i den här listan.

BERT är känt för sina naturliga språkbehandlingsförmågor (NLP), såsom frågesvar och sentimentanalys. Den använder BookCorpus och engelska Wikipedia som sina modeller för förträningsreferenser, efter att ha lärt sig 800 miljoner respektive 2,5 miljarder ord.

BERT tillkännagavs först som en forskningsprojekt med öppen källkod och akademisk uppsats i oktober 2018. Tekniken har sedan dess implementerats i Google Sök. Tidig litteratur om BERT jämför det med OpenAIs ChatGPT i november 2018, och noterar att Googles teknik är djup dubbelriktad, vilket hjälper till att förutsäga inkommande text. Under tiden är OpenAI GPT enkelriktad och kan bara svara på komplexa frågor.

Meena från Google

Meena är en chatbot som Google introducerade i januari 2020 med förmågan att konversera på ett mänskligt sätt. Exempel på dess funktioner inkluderar enkla konversationer som inkluderar intressanta skämt och ordlekar, som Meena föreslår att kor studerar "Bovine sciences" vid Harvard.

Google Meena chatbot exempel.

Som ett direkt alternativ till OpenAI: s GPT-2 hade Meena förmågan att behandla 8,5 gånger så mycket data som sin konkurrent vid den tiden. Dess neurala nätverk består av 2,6 parametrar och den är tränad i offentliga sociala mediakonversationer. Meena fick också en metrisk poäng i Sensibleness and Specificity Average (SSA) på 79 %, vilket gör den till en av de mest intelligenta chatbotarna på sin tid.

Meena-koden är tillgänglig på GitHub.

ROBERTA av Facebook

ROBERTA (Robustly Optimized BERT Pretraining Approach) är en annan avancerad version av den ursprungliga BERT, som Facebook meddelade i juli 2019.

Facebook skapade denna NLP-modell med en större datakälla som sin förträningsmodell. RobERTa använder CommonCrawl (CC-News), som inkluderar 63 miljoner engelska nyhetsartiklar genererade mellan september 2016 och februari 2019, som sin datauppsättning på 76 GB. I jämförelse använder den ursprungliga BERT 16 GB data mellan sina engelska Wikipedia och BookCorpus datamängder, enligt Facebook.

I likhet med XLNet slog RobERTa BERT i en uppsättning benchmarkdatauppsättningar, enligt Facebooks forskning. För att få dessa resultat använde företaget inte bara en större datakälla utan förutbildade också sin modell för en längre tid.

Facebook gjorde ROBERTA öppen källa i september 2019, och dess kod är tillgänglig på GitHub för samhällsexperiment.

VentureBeat nämnde också GPT-2 bland de framväxande AI-systemen under den tiden.

XLNet från Google

XLNET är en transformatorbaserad autoregressiv språkmodell utvecklad av ett team av Google Brain och Carnegie Mellon University forskare. Modellen är i grunden en mer avancerad BERT och visades upp först i juni 2019. Gruppen fann XLNet vara minst 16 % effektivare än den ursprungliga BERT, som tillkännagavs 2018, med den kunde slå BERT i ett test av 20 NLP-uppgifter.

XLNet: en ny förträningsmetod för NLP som avsevärt förbättrar BERT på 20 uppgifter (t.ex. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (kod + förtränade modeller): https://t.co/kI4jsVzT1u

med Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 juni 2019

Med både XLNet och BERT som använder "maskerade" tokens för att förutsäga dold text, förbättrar XLNet effektiviteten genom att påskynda den prediktiva delen av processen. Till exempel Amazon Alexa dataforskaren Aishwarya Srinivasan förklarade att XLNet kan identifiera ordet "New" som associerat med termen "är en stad" innan det förutsäger termen "York" som också associerat med den termen. Samtidigt måste BERT identifiera orden "New" och "York" separat och sedan associera dem med termen "är en stad", till exempel.

Noterbart är GPT och GPT-2 också nämnt i denna förklaring från 2019 som andra exempel på autoregressiva språkmodeller.

XLNet-kod och förtränade modeller är tillgänglig på GitHub. Modellen är välkänd inom NLP-forskarvärlden.

DialoGPT av Microsoft Research

DialoGPT (Dialogue Generative Pre-trained Transformer) är en autoregressiv språkmodell som introducerades i november 2019 av Microsoft Research. Med likheter med GPT-2 var modellen förtränad för att generera mänskliga konversationer. Dess primära informationskälla var dock 147 miljoner dialoger med flera varv som skrapats från Reddit-trådar.

DiabloGPT multi-turn generation exempel.

HumanFirst chefevangelisten Cobus Greyling har noterat hans framgång med att implementera DialoGPT i Telegrams meddelandetjänst för att få modellen till liv som en chatbot. Han tillade att användning av Amazon Web Services och Amazon SageMaker kan hjälpa till med att finjustera koden.

DialoGPT-koden är tillgänglig på GitHub.

ALBERT från Google

ALBERT (A Lite BERT) är en trunkerad version av den ursprungliga BERT och utvecklades av Google i december 2019.

Med ALBERT begränsade Google antalet parametrar som tillåts i modellen genom att introducera parametrar med "dolda lagerinbäddningar".

Maskinprestanda på RACE-utmaningen (SAT-liknande läsförståelse) från Google

Detta förbättrades inte bara på BERT-modellen utan även på XLNet och RobERTa eftersom ALBERT kan tränas på samma större datamängd information som används för de två nyare modellerna samtidigt som de ansluter sig till mindre parametrar. I huvudsak arbetar ALBERT bara med de parametrar som är nödvändiga för dess funktioner, vilket ökade prestanda och noggrannhet. Google berättade att det fann ALBERT att överträffa BERT på 12 NLP-riktmärken, inklusive ett SAT-liknande läsförståelseriktmärke.

Även om det inte nämns med namn, ingår GPT i bilden för ALBERT på Googles forskningsblogg.

Google släppte ALBERT som öppen källkod i januari 2020, och den implementerades ovanpå Googles TensorFlow. Koden finns tillgänglig på GitHub.

T5 från Google

T5 (Text-to-Text Transfer Transformer) är en NLP-modell introducerad av Google under 2019 som lånar från en mängd tidigare modeller, inklusive GPT, BERT, XLNet, RobERTa och ALBERT, bland andra. Det lägger till en ny och unik datamängd kallas Colossal Clean Crawled Corpus (C4), vilket gör att transformatorn kan producera högre kvalitet och kontextuella resultat än andra datauppsättningar i jämförelse med Common Crawl-webbskrapor som används för XLNet.
Google T5 Text-To-Text Transfer Transformer förträning.
T5-förträningen ledde till skapandet av chatbot-applikationer, inklusive InferKit Talk To Transformer och den AI Dungeon spel. Textgeneratorerna liknar ChatGPT genom att de låter dig skapa realistiska konversationer baserat på vad AI genererar efter dina första uppmaningar eller frågor.
T5-koden finns tillgänglig på GitHub.

CTRL av Salesforce

CTRL av Salesforce (Computational Trust and Reasoning Layer) var en av de största offentligt släppta språkmodellerna när den tillkännagavs i september 2019 av Salesforce. Språkmodellen med 1,6 miljarder parametrar kan användas för att analysera stora texter på en gång, till exempel de som är kopplade till webbsidor. Några möjliga praktiska användningsområden inkluderar parning med recensioner, betyg och tillskrivningar.
Salesforce CTRL-källatillskrivningsexempel.
CTRL-språkmodellen kan särskilja syftet med en specifik fråga till skiljetecken. Salesforce noterade modellen kan upptäcka skillnaden mellan "Global uppvärmning är en lögn." som en impopulär åsikt och ”Global uppvärmning är en lögn" som en konspirationsteori på grund av skillnaden i perioden i fraserna och skapa motsvarande Reddit-trådar för varje.
CTRL referenser upp till 140 GB data för förträning från källor, inklusive Wikipedia, Project Gutenberg, Amazon recensioner och Reddit. Den refererar också till ett antal internationella nyheter, information och triviaresurser.
CTRL-koden finns tillgänglig på GitHub.

GShard från Google

GShard är en gigantisk språköversättningsmodell den där Google introducerade i juni 2020 i syfte att skalning av neurala nätverk. Modellen innehåller 600 miljarder parametrar, vilket möjliggör stora uppsättningar dataträning på en gång. GShard är särskilt skicklig på språköversättning och utbildas i att översätta 100 språk till engelska på fyra dagar.

Blender från Facebook AI Research

Blender är en chatbot med öppen källkod som introducerades i april 2020 av Facebook AI Research. Chatboten har noterats ha förbättrad konversationsförmåga jämfört med konkurrerande modeller, med förmågan att tillhandahålla engagera diskussionspunkter, lyssna och visa förståelse för sin partners input och visa upp empati och personlighet.

Blender chatbot exempel.

Blender har jämförts med Googles Meena chatbot, som i sin tur har jämförts med OpenAI: s GPT-2

Blenderkoden är tillgänglig på Parl.ai.

Pegasus från Google

Pegasus är en naturlig språkbearbetningsmodell som var introducerad av Google i december 2019. Pegasus kan tränas för att skapa sammanfattningar, och i likhet med andra modeller som BERT, GPT-2, RobERTa, XLNet, ALBERT och T5 kan den finjusteras för specifika uppgifter. Pegasus har testats på dess effektivitet när det gäller att sammanfatta nyheter, vetenskap, berättelser, instruktioner, e-postmeddelanden, patent och lagförslag i jämförelse med mänskliga ämnen.

PEGASUS NLP har jämförts med en människa när det gäller sammanfattande kvalitet.

Pegasus-koden är tillgänglig på GitHub.

Redaktörens rekommendationer

  • Google Bard kan nu tala, men kan det överrösta ChatGPT?
  • ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
  • ChatGPTs webbplatstrafik har minskat för första gången
  • ChatGPT: s Bing-surffunktion inaktiverad på grund av betalväggsåtkomstfel
  • De bästa AI-chatbotarna att prova: ChatGPT, Bard och mer