ChatGPT har snabbt blivit älsklingen av generativ AI, men det är knappast den enda spelaren i spelet. Dessutom alla andra AI-verktyg där ute som gör saker som bildgenerering, det finns också ett antal direkta konkurrenter med ChatGPT - eller så antog jag.
Innehåll
- Bing från Microsoft
- BERT från Google
- Meena från Google
- ROBERTA av Facebook
- XLNet från Google
- DialoGPT av Microsoft Research
- ALBERT från Google
- T5 från Google
- CTRL av Salesforce
- GShard från Google
- Blender från Facebook AI Research
- Pegasus från Google
Varför inte fråga ChatGPT om det? Det är precis vad jag gjorde för att få den här listan, i hopp om att hitta några alternativ för dem möter "vid kapacitet" meddelanden, eller andra som bara vill prova något nytt. Alla dessa är inte lika tillgängliga för allmänheten som ChatGPT, men enligt ChatGPT är dessa de bästa alternativen.
Rekommenderade videor
Bing från Microsoft
Innan du går in i valen som listas av AI, är det bästa alternativet till ChatGPT, ja, ChatGPT. Microsoft nyligen
lade till AI i sin Bing-sökmotor, och den planerar att rulla ut funktionen till Edge-webbläsaren snart.Relaterad
- ChatGPT-tillverkaren OpenAI står inför FTC-utredning över konsumentskyddslagar
- ChatGPTs rekordtillväxt avsattes precis av en ny viral app
- OpenAI bygger ett nytt team för att förhindra att superintelligent AI blir oseriöst
Det är bara i förhandsvisning, men du kan fortfarande prova den nya AI-chatboten på bing.com/new just nu. Microsoft säger att det begränsar antalet frågor initialt, men du kan gå med på Bing ChatGPTs väntelista meddelas när den fullständiga versionen är tillgänglig.
BERT från Google
BERT (Bidirectional Encoder Representations from Transformers) är en maskininlärningsmodell utvecklad av Google. Många av ChatGPTs resultat nämnde projekt av Google, som du kommer att se längre fram i den här listan.
BERT är känt för sina naturliga språkbehandlingsförmågor (NLP), såsom frågesvar och sentimentanalys. Den använder BookCorpus och engelska Wikipedia som sina modeller för förträningsreferenser, efter att ha lärt sig 800 miljoner respektive 2,5 miljarder ord.
BERT tillkännagavs först som en forskningsprojekt med öppen källkod och akademisk uppsats i oktober 2018. Tekniken har sedan dess implementerats i Google Sök. Tidig litteratur om BERT jämför det med OpenAIs ChatGPT i november 2018, och noterar att Googles teknik är djup dubbelriktad, vilket hjälper till att förutsäga inkommande text. Under tiden är OpenAI GPT enkelriktad och kan bara svara på komplexa frågor.
Meena från Google
Meena är en chatbot som Google introducerade i januari 2020 med förmågan att konversera på ett mänskligt sätt. Exempel på dess funktioner inkluderar enkla konversationer som inkluderar intressanta skämt och ordlekar, som Meena föreslår att kor studerar "Bovine sciences" vid Harvard.
Som ett direkt alternativ till OpenAI: s GPT-2 hade Meena förmågan att behandla 8,5 gånger så mycket data som sin konkurrent vid den tiden. Dess neurala nätverk består av 2,6 parametrar och den är tränad i offentliga sociala mediakonversationer. Meena fick också en metrisk poäng i Sensibleness and Specificity Average (SSA) på 79 %, vilket gör den till en av de mest intelligenta chatbotarna på sin tid.
Meena-koden är tillgänglig på GitHub.
ROBERTA av Facebook
ROBERTA (Robustly Optimized BERT Pretraining Approach) är en annan avancerad version av den ursprungliga BERT, som Facebook meddelade i juli 2019.
Facebook skapade denna NLP-modell med en större datakälla som sin förträningsmodell. RobERTa använder CommonCrawl (CC-News), som inkluderar 63 miljoner engelska nyhetsartiklar genererade mellan september 2016 och februari 2019, som sin datauppsättning på 76 GB. I jämförelse använder den ursprungliga BERT 16 GB data mellan sina engelska Wikipedia och BookCorpus datamängder, enligt Facebook.
I likhet med XLNet slog RobERTa BERT i en uppsättning benchmarkdatauppsättningar, enligt Facebooks forskning. För att få dessa resultat använde företaget inte bara en större datakälla utan förutbildade också sin modell för en längre tid.
Facebook gjorde ROBERTA öppen källa i september 2019, och dess kod är tillgänglig på GitHub för samhällsexperiment.
VentureBeat nämnde också GPT-2 bland de framväxande AI-systemen under den tiden.
XLNet från Google
XLNET är en transformatorbaserad autoregressiv språkmodell utvecklad av ett team av Google Brain och Carnegie Mellon University forskare. Modellen är i grunden en mer avancerad BERT och visades upp först i juni 2019. Gruppen fann XLNet vara minst 16 % effektivare än den ursprungliga BERT, som tillkännagavs 2018, med den kunde slå BERT i ett test av 20 NLP-uppgifter.
XLNet: en ny förträningsmetod för NLP som avsevärt förbättrar BERT på 20 uppgifter (t.ex. SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (kod + förtränade modeller): https://t.co/kI4jsVzT1u
med Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20 juni 2019
Med både XLNet och BERT som använder "maskerade" tokens för att förutsäga dold text, förbättrar XLNet effektiviteten genom att påskynda den prediktiva delen av processen. Till exempel Amazon Alexa dataforskaren Aishwarya Srinivasan förklarade att XLNet kan identifiera ordet "New" som associerat med termen "är en stad" innan det förutsäger termen "York" som också associerat med den termen. Samtidigt måste BERT identifiera orden "New" och "York" separat och sedan associera dem med termen "är en stad", till exempel.
Noterbart är GPT och GPT-2 också nämnt i denna förklaring från 2019 som andra exempel på autoregressiva språkmodeller.
XLNet-kod och förtränade modeller är tillgänglig på GitHub. Modellen är välkänd inom NLP-forskarvärlden.
DialoGPT av Microsoft Research
DialoGPT (Dialogue Generative Pre-trained Transformer) är en autoregressiv språkmodell som introducerades i november 2019 av Microsoft Research. Med likheter med GPT-2 var modellen förtränad för att generera mänskliga konversationer. Dess primära informationskälla var dock 147 miljoner dialoger med flera varv som skrapats från Reddit-trådar.
HumanFirst chefevangelisten Cobus Greyling har noterat hans framgång med att implementera DialoGPT i Telegrams meddelandetjänst för att få modellen till liv som en chatbot. Han tillade att användning av Amazon Web Services och Amazon SageMaker kan hjälpa till med att finjustera koden.
DialoGPT-koden är tillgänglig på GitHub.
ALBERT från Google
ALBERT (A Lite BERT) är en trunkerad version av den ursprungliga BERT och utvecklades av Google i december 2019.
Med ALBERT begränsade Google antalet parametrar som tillåts i modellen genom att introducera parametrar med "dolda lagerinbäddningar".
Detta förbättrades inte bara på BERT-modellen utan även på XLNet och RobERTa eftersom ALBERT kan tränas på samma större datamängd information som används för de två nyare modellerna samtidigt som de ansluter sig till mindre parametrar. I huvudsak arbetar ALBERT bara med de parametrar som är nödvändiga för dess funktioner, vilket ökade prestanda och noggrannhet. Google berättade att det fann ALBERT att överträffa BERT på 12 NLP-riktmärken, inklusive ett SAT-liknande läsförståelseriktmärke.
Även om det inte nämns med namn, ingår GPT i bilden för ALBERT på Googles forskningsblogg.
Google släppte ALBERT som öppen källkod i januari 2020, och den implementerades ovanpå Googles TensorFlow. Koden finns tillgänglig på GitHub.
T5 från Google
CTRL av Salesforce
GShard från Google
GShard är en gigantisk språköversättningsmodell den där Google introducerade i juni 2020 i syfte att skalning av neurala nätverk. Modellen innehåller 600 miljarder parametrar, vilket möjliggör stora uppsättningar dataträning på en gång. GShard är särskilt skicklig på språköversättning och utbildas i att översätta 100 språk till engelska på fyra dagar.
Blender från Facebook AI Research
Blender är en chatbot med öppen källkod som introducerades i april 2020 av Facebook AI Research. Chatboten har noterats ha förbättrad konversationsförmåga jämfört med konkurrerande modeller, med förmågan att tillhandahålla engagera diskussionspunkter, lyssna och visa förståelse för sin partners input och visa upp empati och personlighet.
Blender har jämförts med Googles Meena chatbot, som i sin tur har jämförts med OpenAI: s GPT-2
Blenderkoden är tillgänglig på Parl.ai.
Pegasus från Google
Pegasus är en naturlig språkbearbetningsmodell som var introducerad av Google i december 2019. Pegasus kan tränas för att skapa sammanfattningar, och i likhet med andra modeller som BERT, GPT-2, RobERTa, XLNet, ALBERT och T5 kan den finjusteras för specifika uppgifter. Pegasus har testats på dess effektivitet när det gäller att sammanfatta nyheter, vetenskap, berättelser, instruktioner, e-postmeddelanden, patent och lagförslag i jämförelse med mänskliga ämnen.
Pegasus-koden är tillgänglig på GitHub.
Redaktörens rekommendationer
- Google Bard kan nu tala, men kan det överrösta ChatGPT?
- ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
- ChatGPTs webbplatstrafik har minskat för första gången
- ChatGPT: s Bing-surffunktion inaktiverad på grund av betalväggsåtkomstfel
- De bästa AI-chatbotarna att prova: ChatGPT, Bard och mer