Nejlepší alternativy ChatGPT (podle ChatGPT)

ChatGPT se rychle stal miláčkem generativní umělé inteligence, ale není to zdaleka jediný hráč ve hře. Navíc všechny ostatní nástroje umělé inteligence které dělají věci jako generování obrázků, existuje také řada přímých konkurentů s ChatGPT – nebo jsem to alespoň předpokládal.

Obsah

  • Bing od Microsoftu
  • BERT od společnosti Google
  • Meena od Googlu
  • RoBERTa na Facebooku
  • XLNet od společnosti Google
  • DialoGPT od společnosti Microsoft Research
  • ALBERT od Googlu
  • T5 od společnosti Google
  • CTRL od Salesforce
  • GShard od společnosti Google
  • Blender od společnosti Facebook AI Research
  • Pegas od Googlu

Proč se na to nezeptat ChatGPT? To je přesně to, co jsem udělal, abych získal tento seznam, v naději, že pro ně najdu nějaké možnosti čelí upozornění na „vytížení“., nebo ostatní, kteří chtějí jen zkusit něco nového. Ne všechny jsou tak přístupné veřejnosti jako ChatGPT, ale podle ChatGPT jsou to nejlepší alternativy.

Doporučená videa

Bing od Microsoftu

Přepracovaný vyhledávač Bing společnosti Microsoft.

Než se dostanete do výběru podle AI, nejlepší alternativou k ChatGPT je ChatGPT. Microsoft nedávno

přidal AI do svého vyhledávače Binga plánuje tuto funkci brzy zavést do prohlížeče Edge.

Příbuzný

  • Tvůrce ChatGPT OpenAI čelí vyšetřování FTC kvůli zákonům na ochranu spotřebitele
  • Rekordní růst ChatGPT byl právě sesazen z trůnu novou virální aplikací
  • OpenAI buduje nový tým, aby zabránil tomu, že superinteligentní umělá inteligence bude nečestná

Je to pouze v náhledu, ale stále můžete vyzkoušet nového chatbota AI na bing.com/new právě teď. Microsoft říká, že zpočátku omezuje počet dotazů, ale můžete připojte se k pořadníku Bing ChatGPT být informován, až bude k dispozici plná verze.

BERT od společnosti Google

BERT (Bidirectional Encoder Representations from Transformers) je model strojového učení vyvinutý společností Google. Mnoho výsledků ChatGPT zmínilo projekty společnosti Google, které uvidíte později v tomto seznamu.

BERT je známý svými schopnostmi zpracování přirozeného jazyka (NLP), jako je odpovídání na otázky a analýza sentimentu. Používá BookCorpus a anglickou Wikipedii jako své modely pro předtrénovací reference, které se naučily 800 milionů a 2,5 miliardy slov.

BERT byl poprvé oznámen jako open-source výzkumný projekt a akademický papír v říjnu 2018. Tato technologie byla od té doby implementována do Vyhledávání Google. Raná literatura o BERT porovnejte s ChatGPT OpenAI v listopadu 2018 s tím, že technologie Google je hluboce obousměrná, což pomáhá s předpovídáním příchozího textu. Mezitím je OpenAI GPT jednosměrná a může reagovat pouze na složité dotazy.

Meena od Googlu

Meena je takový chatbot Google představil v lednu 2020 se schopností konverzovat lidským způsobem. Příklady jeho funkcí zahrnují jednoduché konverzace, které zahrnují zajímavé vtipy a slovní hříčky, jako je Meena, která navrhuje, aby krávy studovaly „Bovine sciences“ na Harvardu.

Příklad chatbota Google Meena.

Jako přímá alternativa k OpenAI GPT-2 měla Meena schopnost zpracovat 8,5krát více dat než její konkurent v té době. Jeho neuronová síť obsahuje 2,6 parametrů a je trénována na veřejné konverzace na sociálních sítích. Meena také získala metrické skóre v Sensibleness and Specificity Average (SSA) 79 %, což z ní dělá jednoho z nejinteligentnějších chatbotů své doby.

Kód Meena je k dispozici na GitHub.

RoBERTa na Facebooku

RoBERTa (Robustly Optimized BERT Pretraining Approach) je další pokročilá verze původního BERT, která Facebook oznámil v červenci 2019.

Facebook vytvořil tento NLP model s větším zdrojem dat jako předtréninkový model. RoBERTa používá CommonCrawl (CC-News), který obsahuje 63 milionů anglických zpravodajských článků vygenerovaných mezi zářím 2016 a únorem 2019, jako svůj 76GB datový soubor. Pro srovnání, původní BERT podle Facebooku používá 16 GB dat mezi svými anglickými datovými sadami Wikipedie a BookCorpus.

Silimar to XLNet, RoBERTa porazila BERT v sadě referenčních datových sad podle výzkumu Facebooku. K získání těchto výsledků společnost nejen použila větší zdroj dat, ale také předtrénovala svůj model pro a delší časové období.

Facebook udělal RoBERTA open-source v září 2019 a jeho kód je k dispozici na GitHubu pro komunitní experimentování.

VentureBeat také zmínil GPT-2 mezi vznikajícími systémy umělé inteligence v té době.

XLNet od společnosti Google

XLNET je autoregresivní jazykový model založený na transformátoru vyvinutý týmem Výzkumníci z Google Brain a Carnegie Mellon University. Model je v podstatě pokročilejší BERT a byl poprvé představen v červnu 2019. Skupina zjistila, že XLNet je minimálně o 16 % účinnější než původní BERT, který byl oznámen v roce 2018, dokázal BERT porazit v testu 20 úloh NLP.

XLNet: nová předtréninková metoda pro NLP, která výrazně zlepšuje BERT ve 20 úkolech (např. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (kód + předtrénované modely): https://t.co/kI4jsVzT1u

se Zhilin Yangem, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20. června 2019

Díky tomu, že XLNet i BERT používají „maskované“ tokeny k předvídání skrytého textu, XLNet zvyšuje efektivitu urychlením prediktivní části procesu. Například Amazon Alexa datový vědec Aishwarya Srinivasan vysvětlil že XLNet je schopen identifikovat slovo „New“ jako spojené s pojmem „je město“, než předpoví, že výraz „York“ je také spojen s tímto pojmem. Mezitím BERT potřebuje samostatně identifikovat slova „New“ a „York“ a pak je spojit například s pojmem „je město“.

Zejména jsou to GPT a GPT-2 také zmíněno v tomto vysvětlovači z roku 2019 jako další příklady autoregresních jazykových modelů.

XLNet kód a předtrénované modely jsou k dispozici na GitHubu. Model je dobře známý mezi výzkumnou komunitou NLP.

DialoGPT od společnosti Microsoft Research

DialoGPT (Dialogue Generative Pre-trained Transformer) je autoregresivní jazykový model, který byl představen v listopadu 2019 společností Microsoft Research. S podobností s GPT-2 byl model předtrénován tak, aby generoval lidskou konverzaci. Jeho primárním zdrojem informací však bylo 147 milionů víceotáčkových dialogů seškrábaných z vláken Reddit.

Příklady víceotáčkového generování DiabloGPT.

Hlavní evangelista HumanFirst Cobus Greyling poznamenal jeho úspěch při implementaci DialoGPT do služby zasílání zpráv Telegram, aby model oživil jako chatbot. Dodal, že používání Amazon Web Services a Amazon SageMaker může pomoci s doladěním kódu.

DialoGPT kód je dostupný na GitHub.

ALBERT od Googlu

ALBERT (A Lite BERT) je zkrácená verze původního BERT a byla vyvinuta společností Google v prosinci 2019.

S nástrojem ALBERT Google omezil počet parametrů povolených v modelu zavedením parametrů se „skrytými vrstvami vložení“.

Výkon stroje ve výzvě RACE (pochopení čtení jako SAT) od společnosti Google

To se zlepšilo nejen na modelu BERT, ale také na XLNet a RoBERTa, protože ALBERT lze trénovat stejný větší datový soubor informací použitý pro dva novější modely, přičemž se držel menší parametry. ALBERT pracuje v podstatě pouze s parametry nezbytnými pro jeho funkce, což zvyšuje výkon a přesnost. Google podrobně uvedl, že zjistil, že ALBERT překonal BERT ve 12 benchmarkech NLP, včetně benchmarku čtení s porozuměním podobnému SAT.

I když to není uvedeno jménem, ​​GPT je součástí obrázku pro ALBERT na blogu Google Research.

Google vydal ALBERT jako open-source v lednu 2020 a byl implementován na vrcholu TensorFlow společnosti Google. Kód je k dispozici na GitHub.

T5 od společnosti Google

T5 (Text-to-Text Transfer Transformer) je model NLP představil Google v roce 2019, která si půjčuje od řady předchozích modelů, mimo jiné GPT, BERT, XLNet, RoBERTa a ALBERT. Přidává a nový a jedinečný soubor dat nazvaný Colossal Clean Crawled Corpus (C4), který umožňuje transformátoru produkovat vyšší kvalitu a kontextové výsledky než jiné soubory dat ve srovnání s běžným procházením webu, pro který se používá XLNet.
Předškolní příprava Transformátoru převodu textu na text Google T5.
Předškolní příprava T5 vedla k vytvoření aplikací pro chatboty, včetně InferKit Talk To Transformer a AI Dungeon hra. Textové generátory připomínají ChatGPT v tom, že vám umožňují generovat realistické konverzace na základě toho, co AI generuje po vašich počátečních výzvách nebo dotazech.
Kód T5 je k dispozici na GitHub.

CTRL od Salesforce

CTRL od Salesforce (Computational Trust and Reasoning Layer) byl jedním z největších veřejně vydaných jazykových modelů, když bylo oznámeno v září 2019 od Salesforce. Jazykový model s 1,6 miliardami parametrů lze použít k analýze velkých objemů textu najednou, jako jsou ty, které jsou spojené s webovými stránkami. Některá potenciální praktická využití zahrnují spárování s recenzemi, hodnoceními a atribucemi.
Příklad atribuce zdroje Salesforce CTRL.
Jazykový model CTRL dokáže rozlišit až po interpunkci záměr konkrétního dotazu. Salesforce poznamenal model dokáže rozpoznat rozdíl mezi „globálním oteplováním je lež“. jako nepopulární názor a „Globální oteplování je a lež“ jako konspirační teorie kvůli rozdílu období ve frázích a navrhování odpovídajících vláken Reddit pro každý.
CTRL odkazy až 140 GB dat pro předtrénování ze zdrojů, včetně Wikipedie, projektu Gutenberg, recenzí Amazonu a Redditu. Odkazuje také na řadu mezinárodních zpráv, informací a zdrojů informací.
CTRL kód je dostupný na GitHub.

GShard od společnosti Google

GShard je a obří model jazykového překladu že Google představil v červnu 2020 za účelem škálování neuronové sítě. Model obsahuje 600 miliard parametrů, což umožňuje velké sady trénování dat najednou. GShard je obzvláště zběhlý jazykový překlad a být vyškoleni k překladu 100 jazyků do angličtiny za čtyři dny.

Blender od společnosti Facebook AI Research

Blender je open-source chatbot, který byl představen v duben 2020 od Facebook AI Research. Bylo zaznamenáno, že chatbot má vylepšené konverzační schopnosti oproti konkurenčním modelům a má schopnost poskytovat zapojovat mluvené body, naslouchat a projevovat pochopení pro vstup svého partnera a předvádět empatii a osobnost.

Příklad chatbota Blenderu.

Blender byl přirovnáván k chatbotu Meena od Googlu, který byl zase přirovnáván k GPT-2 od OpenAI

Kód Blenderu je k dispozici na Parl.ai.

Pegas od Googlu

Pegasus je model zpracování přirozeného jazyka, který byl představil Google v prosinci 2019. Pegasus lze trénovat k vytváření souhrnů a podobně jako u jiných modelů, jako jsou BERT, GPT-2, RoBERTa, XLNet, ALBERT a T5, lze jej doladit na konkrétní úkoly. Pegasus byl testován na jeho účinnost při shrnutí zpráv, vědy, příběhů, pokynů, e-mailů, patentů a legislativních návrhů ve srovnání s lidskými subjekty.

PEGASUS NLP byl z hlediska souhrnné kvality přirovnáván k člověku.

Kód Pegasus je k dispozici na GitHub.

Doporučení redakce

  • Google Bard nyní umí mluvit, ale dokáže přehlušit ChatGPT?
  • ChatGPT: nejnovější zprávy, kontroverze a tipy, které potřebujete vědět
  • Návštěvnost webu ChatGPT poprvé klesla
  • Funkce procházení Bing ChatGPT je deaktivována kvůli chybě v přístupu k paywallu
  • Nejlepší chatboti AI k vyzkoušení: ChatGPT, Bard a další