ChatGPT gyorsan a generatív mesterséges intelligencia kedvencévé vált, de aligha az egyetlen játékos a játékban. Továbbá az összes többi AI-eszköz amelyek például képgenerálást végeznek, a ChatGPT-nek számos közvetlen versenytársa is van – legalábbis én ezt feltételeztem.
Tartalom
- Bing a Microsofttól
- BERT a Google-tól
- Meena a Google-tól
- RoBERTa a Facebookon
- XLNet a Google-tól
- DialoGPT a Microsoft Researchtől
- ALBERT a Google-tól
- T5 a Google-tól
- CTRL a Salesforce-tól
- GShard a Google-tól
- Blender a Facebook AI Researchtől
- Pegasus a Google-tól
Miért nem kérdezed meg a ChatGPT-t erről? Pontosan ezt tettem, hogy megszerezzem ezt a listát, remélve, hogy találok néhány lehetőséget ezekhez a „teljesítmény” feliratokkal szemben, vagy mások, akik csak szeretnének valami újat kipróbálni. Ezek nem mindegyike olyan elérhető a nyilvánosság számára, mint a ChatGPT, de a ChatGPT szerint ezek a legjobb alternatívák.
Ajánlott videók
Bing a Microsofttól
Mielőtt belevágna az AI által felsorolt lehetőségek közé, a ChatGPT legjobb alternatívája a ChatGPT. A Microsoft nemrég
hozzáadta az AI-t a Bing keresőmotorjához, és azt tervezi, hogy hamarosan bevezeti a funkciót az Edge böngészőbe.Összefüggő
- A ChatGPT-t gyártó OpenAI-t az FTC vizsgálja a fogyasztóvédelmi törvényekkel kapcsolatban
- A ChatGPT rekordnövekedését éppen egy új vírusalkalmazás tette le a trónról
- Az OpenAI új csapatot épít, hogy megakadályozza a szuperintelligens mesterséges intelligencia szélhámosságát
Még csak előnézetben van, de továbbra is kipróbálhatja az új AI chatbotot a weboldalon bing.com/new épp most. A Microsoft azt mondja, hogy kezdetben korlátozza a lekérdezések számát, de megteheti csatlakozzon a Bing ChatGPT várólistájához értesítést kap, ha a teljes verzió elérhető lesz.
BERT a Google-tól
A BERT (Bidirectional Encoder Representations from Transformers) a Google által kifejlesztett gépi tanulási modell. A ChatGPT sok eredménye említi a Google projektjeit, amelyeket később ebben a listában láthat majd.
A BERT természetes nyelvi feldolgozási (NLP) képességeiről ismert, mint például a kérdés-válaszolás és a hangulatelemzés. 800 millió, illetve 2,5 milliárd szót tanult meg a BookCorpus és az angol Wikipedia modelljeként a referenciák előképzéséhez.
A BERT-et először an nyílt forráskódú kutatási projekt és akadémiai dolgozat 2018 októberében. A technológiát azóta beépítették a Google Keresőbe. Korai irodalom a BERT-ről hasonlítsa össze az OpenAI 2018 novemberi ChatGPT-jével, megjegyezve, hogy a Google technológiája mélyen kétirányú, ami segít a bejövő szöveg előrejelzésében. Eközben az OpenAI GPT egyirányú, és csak összetett lekérdezésekre tud válaszolni.
Meena a Google-tól
A Meena egy chatbot A Google bemutatta 2020 januárjában emberszerű társalgás képességével. Funkcióira példák az egyszerű beszélgetések, amelyek érdekes vicceket és szójátékokat tartalmaznak, például Meena azt javasolja, hogy tehenek tanuljanak „Bovine Sciences”-t a Harvardon.
Az OpenAI GPT-2 közvetlen alternatívájaként a Meena 8,5-szer annyi adatot tudott feldolgozni, mint akkori versenytársa. Neurális hálózata 2,6 paraméterből áll, és nyilvános közösségi média beszélgetésekre van kiképezve. A Meena 79%-os metrikus pontszámot is kapott a Sensibleness and Specificity Average (SSA) értékében, ezzel korának egyik legintelligensebb chatbotja.
A Meena kód itt érhető el GitHub.
RoBERTa a Facebookon
RoBERTa (Robustly Optimized BERT Pretraining Approach) az eredeti BERT egy másik továbbfejlesztett változata, amely A Facebook bejelentette 2019 júliusában.
Facebook létrehozta ezt az NLP-modellt nagyobb adatforrással, mint előképzési modelljét. A RoBERTa a CommonCrawl-t (CC-News) használja, amely 63 millió, 2016 szeptembere és 2019 februárja között keletkezett angol hírcikket tartalmaz 76 GB-os adatkészleteként. Összehasonlításképpen, az eredeti BERT 16 GB adatot használ az angol Wikipédia és a BookCorpus adatkészletei között a Facebook szerint.
A Facebook kutatása szerint a Silimar és az XLNet között a RoBERTa legyőzte a BERT-et egy sor benchmark adathalmazban. Ahhoz, hogy ezeket az eredményeket megkapja, a vállalat nemcsak egy nagyobb adatforrást használt, hanem a modelljét is előképezte a hosszabb ideig.
A Facebook készítette RoBERTát nyílt forráskód 2019 szeptemberében, kódja pedig a elérhető a GitHubon közösségi kísérletezésre.
VentureBeat a GPT-2-t a feltörekvő AI-rendszerek között is említette abban az időben.
XLNet a Google-tól
Az XLNET egy transzformátor alapú autoregresszív nyelvi modell, amelyet egy csapat fejlesztett ki A Google Brain és a Carnegie Mellon Egyetem kutatói. A modell lényegében egy fejlettebb BERT, és először 2019 júniusában mutatták be. A csoport úgy találta, hogy az XLNet legalább 16%-kal hatékonyabb mint a 2018-ban bejelentett eredeti BERT, amely képes volt legyőzni a BERT-et egy 20 NLP feladatból álló tesztben.
XLNet: egy új előképzési módszer az NLP-hez, amely jelentősen javítja a BERT-t 20 feladatban (pl. SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (kód + előképzett modellek): https://t.co/kI4jsVzT1u
Zhilin Yanggal, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 2019. június 20
Mivel az XLNet és a BERT is „maszkolt” tokeneket használ a rejtett szöveg előrejelzésére, az XLNet a folyamat prediktív részének felgyorsításával javítja a hatékonyságot. Például az Amazon Alexa adattudós Aishwarya Srinivasan magyarázta hogy az XLNet képes azonosítani az „Új” szót az „egy város” kifejezéssel társítottként, mielőtt a „York” kifejezést is ezzel a kifejezéssel társítja. Eközben a BERT-nek külön kell azonosítania a „New” és a „York” szavakat, majd társítania kell őket például az „egy város” kifejezéssel.
Nevezetesen a GPT és a GPT-2 is említettük ebben a 2019-es magyarázóban az autoregresszív nyelvi modellek egyéb példáiként.
Az XLNet kód és az előképzett modellek elérhető a GitHubon. A modell jól ismert az NLP-kutató közösség körében.
DialoGPT a Microsoft Researchtől
A DialoGPT (Dialogue Generative Pre-trained Transformer) egy autoregresszív nyelvi modell, amely bemutatták 2019 novemberében a Microsoft Research által. A GPT-2-vel való hasonlóság miatt a modellt előképzették az emberszerű beszélgetés létrehozására. Elsődleges információforrása azonban 147 millió Reddit-szálakból kikapart többfordulós párbeszéd volt.
A HumanFirst főevangélistája, Cobus Greyling megjegyezte sikerét a DialoGPT bevezetésében a Telegram üzenetküldő szolgáltatásban, hogy a modell chatbotként életre keltsen. Hozzátette, hogy az Amazon Web Services és az Amazon SageMaker használata segíthet a kód finomhangolásában.
A DialoGPT kód itt érhető el GitHub.
ALBERT a Google-tól
ALBERT (Egy egyszerű BERT) az eredeti BERT csonka változata, és a Google fejlesztette ki 2019 decemberében.
Az ALBERT-tel a Google korlátozta a modellben megengedett paraméterek számát azáltal, hogy bevezette a „rejtett rétegbeágyazással” rendelkező paramétereket.
Ez nem csak a BERT modellen, hanem az XLNeten és a RoBERTa-n is javult, mert ALBERT oktatható ugyanaz a nagyobb adathalmaz, amelyet a két újabb modellnél használtak, miközben a kisebbekhez ragaszkodnak paramétereket. Az ALBERT lényegében csak a funkcióihoz szükséges paraméterekkel dolgozik, ami növelte a teljesítményt és a pontosságot. A Google részletezte, hogy az ALBERT 12 NLP-benchmarkon, köztük egy SAT-szerű szövegértési benchmarkon túllépte a BERT-et.
Bár név szerint nem említik, a GPT szerepel az ALBERT képalkotásában a Google Research blogján.
A Google 2020 januárjában kiadta az ALBERT-et nyílt forráskódúként, és a Google TensorFlow-ján keresztül valósították meg. A kód elérhető a GitHub.
T5 a Google-tól
CTRL a Salesforce-tól
GShard a Google-tól
GShard egy óriás nyelvi fordítási modell hogy A Google bemutatta 2020 júniusában a neurális hálózatok skálázása céljából. A modell 600 milliárd paramétert tartalmaz, ami lehetővé teszi egyszerre nagy mennyiségű adat betanítását. GShard különösen ügyes nyelvi fordítás és négy nap alatt 100 nyelv angolra való lefordítására képzett.
Blender a Facebook AI Researchtől
A Blender egy nyílt forráskódú chatbot, amelyet ben vezettek be 2020. április a Facebook AI Research. Megállapították, hogy a chatbot jobb társalgási készségekkel rendelkezik a versenytárs modellekhez képest, és képes a szolgáltatásnyújtásra lebilincselő beszédpontokat, figyelje meg és mutassa meg, hogy megérti partnere véleményét, és mutassa be empátiáját és személyiségét.
A Blendert a Google Meena chatbotjával hasonlították össze, amelyet viszont az OpenAI GPT-2-jével hasonlítottak össze.
A Blender kód itt érhető el Parl.ai.
Pegasus a Google-tól
A Pegasus egy természetes nyelvi feldolgozási modell, ami volt bevezette a Google 2019 decemberében. A Pegasus betanítható összefoglalók készítésére, és hasonlóan más modellekhez, mint a BERT, GPT-2, RoBERTa, XLNet, ALBERT és T5, finomhangolható konkrét feladatokra. A Pegasus hatékonyságát tesztelték a hírek, a tudomány, a történetek, az utasítások, az e-mailek, a szabadalmak és a törvényjavaslatok összefoglalásában, összehasonlítva az emberi témákkal.
A Pegasus kód elérhető GitHub.
Szerkesztői ajánlások
- A Google Bard már beszélni tud, de ki tudja-e fojtani a ChatGPT-t?
- ChatGPT: a legfrissebb hírek, viták és tippek, amelyeket tudnia kell
- A ChatGPT webhely forgalma először csökkent
- A ChatGPT Bing böngészési funkciója le van tiltva a fizetőfal hozzáférési hibája miatt
- A legjobb AI chatbotok, amelyeket kipróbálhat: ChatGPT, Bard és még sok más