A legjobb ChatGPT alternatívák (a ChatGPT szerint)

ChatGPT gyorsan a generatív mesterséges intelligencia kedvencévé vált, de aligha az egyetlen játékos a játékban. Továbbá az összes többi AI-eszköz amelyek például képgenerálást végeznek, a ChatGPT-nek számos közvetlen versenytársa is van – legalábbis én ezt feltételeztem.

Tartalom

  • Bing a Microsofttól
  • BERT a Google-tól
  • Meena a Google-tól
  • RoBERTa a Facebookon
  • XLNet a Google-tól
  • DialoGPT a Microsoft Researchtől
  • ALBERT a Google-tól
  • T5 a Google-tól
  • CTRL a Salesforce-tól
  • GShard a Google-tól
  • Blender a Facebook AI Researchtől
  • Pegasus a Google-tól

Miért nem kérdezed meg a ChatGPT-t erről? Pontosan ezt tettem, hogy megszerezzem ezt a listát, remélve, hogy találok néhány lehetőséget ezekhez a „teljesítmény” feliratokkal szemben, vagy mások, akik csak szeretnének valami újat kipróbálni. Ezek nem mindegyike olyan elérhető a nyilvánosság számára, mint a ChatGPT, de a ChatGPT szerint ezek a legjobb alternatívák.

Ajánlott videók

Bing a Microsofttól

A Microsoft újratervezett Bing keresője.

Mielőtt belevágna az AI által felsorolt ​​lehetőségek közé, a ChatGPT legjobb alternatívája a ChatGPT. A Microsoft nemrég

hozzáadta az AI-t a Bing keresőmotorjához, és azt tervezi, hogy hamarosan bevezeti a funkciót az Edge böngészőbe.

Összefüggő

  • A ChatGPT-t gyártó OpenAI-t az FTC vizsgálja a fogyasztóvédelmi törvényekkel kapcsolatban
  • A ChatGPT rekordnövekedését éppen egy új vírusalkalmazás tette le a trónról
  • Az OpenAI új csapatot épít, hogy megakadályozza a szuperintelligens mesterséges intelligencia szélhámosságát

Még csak előnézetben van, de továbbra is kipróbálhatja az új AI chatbotot a weboldalon bing.com/new épp most. A Microsoft azt mondja, hogy kezdetben korlátozza a lekérdezések számát, de megteheti csatlakozzon a Bing ChatGPT várólistájához értesítést kap, ha a teljes verzió elérhető lesz.

BERT a Google-tól

A BERT (Bidirectional Encoder Representations from Transformers) a Google által kifejlesztett gépi tanulási modell. A ChatGPT sok eredménye említi a Google projektjeit, amelyeket később ebben a listában láthat majd.

A BERT természetes nyelvi feldolgozási (NLP) képességeiről ismert, mint például a kérdés-válaszolás és a hangulatelemzés. 800 millió, illetve 2,5 milliárd szót tanult meg a BookCorpus és az angol Wikipedia modelljeként a referenciák előképzéséhez.

A BERT-et először an nyílt forráskódú kutatási projekt és akadémiai dolgozat 2018 októberében. A technológiát azóta beépítették a Google Keresőbe. Korai irodalom a BERT-ről hasonlítsa össze az OpenAI 2018 novemberi ChatGPT-jével, megjegyezve, hogy a Google technológiája mélyen kétirányú, ami segít a bejövő szöveg előrejelzésében. Eközben az OpenAI GPT egyirányú, és csak összetett lekérdezésekre tud válaszolni.

Meena a Google-tól

A Meena egy chatbot A Google bemutatta 2020 januárjában emberszerű társalgás képességével. Funkcióira példák az egyszerű beszélgetések, amelyek érdekes vicceket és szójátékokat tartalmaznak, például Meena azt javasolja, hogy tehenek tanuljanak „Bovine Sciences”-t a Harvardon.

Példa Google Meena chatbotra.

Az OpenAI GPT-2 közvetlen alternatívájaként a Meena 8,5-szer annyi adatot tudott feldolgozni, mint akkori versenytársa. Neurális hálózata 2,6 paraméterből áll, és nyilvános közösségi média beszélgetésekre van kiképezve. A Meena 79%-os metrikus pontszámot is kapott a Sensibleness and Specificity Average (SSA) értékében, ezzel korának egyik legintelligensebb chatbotja.

A Meena kód itt érhető el GitHub.

RoBERTa a Facebookon

RoBERTa (Robustly Optimized BERT Pretraining Approach) az eredeti BERT egy másik továbbfejlesztett változata, amely A Facebook bejelentette 2019 júliusában.

Facebook létrehozta ezt az NLP-modellt nagyobb adatforrással, mint előképzési modelljét. A RoBERTa a CommonCrawl-t (CC-News) használja, amely 63 millió, 2016 szeptembere és 2019 februárja között keletkezett angol hírcikket tartalmaz 76 GB-os adatkészleteként. Összehasonlításképpen, az eredeti BERT 16 GB adatot használ az angol Wikipédia és a BookCorpus adatkészletei között a Facebook szerint.

A Facebook kutatása szerint a Silimar és az XLNet között a RoBERTa legyőzte a BERT-et egy sor benchmark adathalmazban. Ahhoz, hogy ezeket az eredményeket megkapja, a vállalat nemcsak egy nagyobb adatforrást használt, hanem a modelljét is előképezte a hosszabb ideig.

A Facebook készítette RoBERTát nyílt forráskód 2019 szeptemberében, kódja pedig a elérhető a GitHubon közösségi kísérletezésre.

VentureBeat a GPT-2-t a feltörekvő AI-rendszerek között is említette abban az időben.

XLNet a Google-tól

Az XLNET egy transzformátor alapú autoregresszív nyelvi modell, amelyet egy csapat fejlesztett ki A Google Brain és a Carnegie Mellon Egyetem kutatói. A modell lényegében egy fejlettebb BERT, és először 2019 júniusában mutatták be. A csoport úgy találta, hogy az XLNet legalább 16%-kal hatékonyabb mint a 2018-ban bejelentett eredeti BERT, amely képes volt legyőzni a BERT-et egy 20 NLP feladatból álló tesztben.

XLNet: egy új előképzési módszer az NLP-hez, amely jelentősen javítja a BERT-t 20 feladatban (pl. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (kód + előképzett modellek): https://t.co/kI4jsVzT1u

Zhilin Yanggal, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 2019. június 20

Mivel az XLNet és a BERT is „maszkolt” tokeneket használ a rejtett szöveg előrejelzésére, az XLNet a folyamat prediktív részének felgyorsításával javítja a hatékonyságot. Például az Amazon Alexa adattudós Aishwarya Srinivasan magyarázta hogy az XLNet képes azonosítani az „Új” szót az „egy város” kifejezéssel társítottként, mielőtt a „York” kifejezést is ezzel a kifejezéssel társítja. Eközben a BERT-nek külön kell azonosítania a „New” és a „York” szavakat, majd társítania kell őket például az „egy város” kifejezéssel.

Nevezetesen a GPT és a GPT-2 is említettük ebben a 2019-es magyarázóban az autoregresszív nyelvi modellek egyéb példáiként.

Az XLNet kód és az előképzett modellek elérhető a GitHubon. A modell jól ismert az NLP-kutató közösség körében.

DialoGPT a Microsoft Researchtől

A DialoGPT (Dialogue Generative Pre-trained Transformer) egy autoregresszív nyelvi modell, amely bemutatták 2019 novemberében a Microsoft Research által. A GPT-2-vel való hasonlóság miatt a modellt előképzették az emberszerű beszélgetés létrehozására. Elsődleges információforrása azonban 147 millió Reddit-szálakból kikapart többfordulós párbeszéd volt.

DiabloGPT többfordulós generációs példák.

A HumanFirst főevangélistája, Cobus Greyling megjegyezte sikerét a DialoGPT bevezetésében a Telegram üzenetküldő szolgáltatásban, hogy a modell chatbotként életre keltsen. Hozzátette, hogy az Amazon Web Services és az Amazon SageMaker használata segíthet a kód finomhangolásában.

A DialoGPT kód itt érhető el GitHub.

ALBERT a Google-tól

ALBERT (Egy egyszerű BERT) az eredeti BERT csonka változata, és a Google fejlesztette ki 2019 decemberében.

Az ALBERT-tel a Google korlátozta a modellben megengedett paraméterek számát azáltal, hogy bevezette a „rejtett rétegbeágyazással” rendelkező paramétereket.

Gépi teljesítmény a Google RACE kihívásában (SAT-szerű szövegértés).

Ez nem csak a BERT modellen, hanem az XLNeten és a RoBERTa-n is javult, mert ALBERT oktatható ugyanaz a nagyobb adathalmaz, amelyet a két újabb modellnél használtak, miközben a kisebbekhez ragaszkodnak paramétereket. Az ALBERT lényegében csak a funkcióihoz szükséges paraméterekkel dolgozik, ami növelte a teljesítményt és a pontosságot. A Google részletezte, hogy az ALBERT 12 NLP-benchmarkon, köztük egy SAT-szerű szövegértési benchmarkon túllépte a BERT-et.

Bár név szerint nem említik, a GPT szerepel az ALBERT képalkotásában a Google Research blogján.

A Google 2020 januárjában kiadta az ALBERT-et nyílt forráskódúként, és a Google TensorFlow-ján keresztül valósították meg. A kód elérhető a GitHub.

T5 a Google-tól

A T5 (Text-to-Text Transfer Transformer) egy NLP-modell bevezette a Google 2019-ben, amely számos korábbi modelltől kölcsönzött, többek között a GPT, a BERT, az XLNet, a RoBERTa és az ALBERT. Hozzáteszi a új és egyedi adatkészlet Colossal Clean Crawled Corpus (C4) néven, amely lehetővé teszi a transzformátor számára, hogy jobb minőséget állítson elő és kontextuális eredményeket, mint más adatkészleteket, összehasonlítva a Common Crawl webkaparékokkal XLNet.
Google T5 szövegről szövegre transzfer transzformátor előképzés.
A T5 előképzése chatbot-alkalmazások létrehozásához vezetett, többek között InferKit Talk To Transformer és a AI Dungeon játszma, meccs. A szöveggenerátorok hasonlítanak a ChatGPT-re, mivel lehetővé teszik, hogy valósághű beszélgetéseket generáljon az alapján, amit a mesterséges intelligencia generál a kezdeti felszólítások vagy lekérdezések után.
A T5 kód elérhető GitHub.

CTRL a Salesforce-tól

A Salesforce CTRL (Computational Trust and Reasoning Layer) az egyik legnagyobb nyilvánosan kiadott nyelvi modell volt, amikor bejelentették 2019 szeptemberében a Salesforce. Az 1,6 milliárd paraméteres nyelvi modell segítségével egyszerre lehet elemezni nagy szövegrészeket, például a weboldalakhoz kapcsolódóakat. Néhány lehetséges gyakorlati felhasználási terület a véleményekkel, értékelésekkel és forrásmegjelölésekkel való párosítás.
Salesforce CTRL forrás-hozzárendelési példa.
A CTRL nyelvi modell az írásjelekig képes megkülönböztetni egy adott lekérdezés szándékát. Salesforce megjegyezte a modell fel tudja venni a különbséget a „globális felmelegedés hazugság” között. mint egy népszerűtlen vélemény és „A globális felmelegedés a hazugság”, mint összeesküvés-elmélet a kifejezések időszakának különbsége miatt, és a megfelelő Reddit-szálakat összeállítják minden egyes.
CTRL hivatkozások akár 140 GB adat előképzéséhez olyan forrásokból, mint a Wikipedia, a Project Gutenberg, az Amazon áttekintések és a Reddit. Számos nemzetközi hírre, információra és érdekességre hivatkozik.
A CTRL kód itt érhető el GitHub.

GShard a Google-tól

GShard egy óriás nyelvi fordítási modell hogy A Google bemutatta 2020 júniusában a neurális hálózatok skálázása céljából. A modell 600 milliárd paramétert tartalmaz, ami lehetővé teszi egyszerre nagy mennyiségű adat betanítását. GShard különösen ügyes nyelvi fordítás és négy nap alatt 100 nyelv angolra való lefordítására képzett.

Blender a Facebook AI Researchtől

A Blender egy nyílt forráskódú chatbot, amelyet ben vezettek be 2020. április a Facebook AI Research. Megállapították, hogy a chatbot jobb társalgási készségekkel rendelkezik a versenytárs modellekhez képest, és képes a szolgáltatásnyújtásra lebilincselő beszédpontokat, figyelje meg és mutassa meg, hogy megérti partnere véleményét, és mutassa be empátiáját és személyiségét.

Blender chatbot példa.

A Blendert a Google Meena chatbotjával hasonlították össze, amelyet viszont az OpenAI GPT-2-jével hasonlítottak össze.

A Blender kód itt érhető el Parl.ai.

Pegasus a Google-tól

A Pegasus egy természetes nyelvi feldolgozási modell, ami volt bevezette a Google 2019 decemberében. A Pegasus betanítható összefoglalók készítésére, és hasonlóan más modellekhez, mint a BERT, GPT-2, RoBERTa, XLNet, ALBERT és T5, finomhangolható konkrét feladatokra. A Pegasus hatékonyságát tesztelték a hírek, a tudomány, a történetek, az utasítások, az e-mailek, a szabadalmak és a törvényjavaslatok összefoglalásában, összehasonlítva az emberi témákkal.

A PEGASUS NLP-t az összefoglaló minőség szempontjából egy emberhez hasonlították.

A Pegasus kód elérhető GitHub.

Szerkesztői ajánlások

  • A Google Bard már beszélni tud, de ki tudja-e fojtani a ChatGPT-t?
  • ChatGPT: a legfrissebb hírek, viták és tippek, amelyeket tudnia kell
  • A ChatGPT webhely forgalma először csökkent
  • A ChatGPT Bing böngészési funkciója le van tiltva a fizetőfal hozzáférési hibája miatt
  • A legjobb AI chatbotok, amelyeket kipróbálhat: ChatGPT, Bard és még sok más