Parhaat ChatGPT-vaihtoehdot (ChatGPT: n mukaan)

ChatGPT on nopeasti tullut generatiivisen tekoälyn rakas, mutta se tuskin on pelin ainoa pelaaja. Lisäksi kaikki muut AI-työkalut jotka tekevät esimerkiksi kuvan luomisen, ChatGPT: llä on myös useita suoria kilpailijoita – tai niin oletin.

Sisällys

  • Microsoftin Bing
  • Googlen BERT
  • Googlen Meena
  • RoBERTa Facebookilta
  • Googlen XLNet
  • Microsoft Researchin DialoGPT
  • ALBERT Googlelta
  • Googlen T5
  • Salesforcen CTRL
  • Googlen GShard
  • Facebook AI Researchin Blender
  • Googlen Pegasus

Mikset kysy ChatGPT: ltä siitä? Juuri näin tein saadakseni tämän luettelon toivoen löytäväni joitain vaihtoehtoja niille kohtaa "kapasiteettiin" -ilmoituksia, tai muut, jotka haluavat vain kokeilla jotain uutta. Kaikki nämä eivät ole yhtä yleisön saatavilla kuin ChatGPT, mutta ChatGPT: n mukaan nämä ovat parhaita vaihtoehtoja.

Suositellut videot

Microsoftin Bing

Microsoftin uudistettu Bing-hakukone.

Ennen kuin pääset tekoälyn listaamiin valintoihin, paras vaihtoehto ChatGPT: lle on ChatGPT. Microsoft äskettäin lisäsi tekoälyn Bing-hakukoneeseensa, ja se aikoo julkaista ominaisuuden pian Edge-selaimessa.

Liittyvät

  • ChatGPT-valmistaja OpenAI kohtaa FTC: n tutkinnan kuluttajansuojalaeista
  • ChatGPT: n ennätyskasvu syrjäytti juuri uuden virussovelluksen
  • OpenAI rakentaa uutta tiimiä estääkseen superälykkään tekoälyn huijauksen

Se on vasta esikatselussa, mutta voit silti kokeilla uutta AI-chatbotia osoitteessa bing.com/new juuri nyt. Microsoft sanoo, että se rajoittaa kyselyiden määrää aluksi, mutta voit Liity Bing ChatGPT: n jonotuslistalle saada ilmoituksen, kun täysversio on saatavilla.

Googlen BERT

BERT (Bidirectional Encoder Representations from Transformers) on Googlen kehittämä koneoppimismalli. Useissa ChatGPT: n tuloksissa mainittiin Googlen projektit, jotka näet myöhemmin tässä luettelossa.

BERT tunnetaan luonnollisen kielenkäsittelyn (NLP) kyvystään, kuten kysymysvastaamisesta ja tunteiden analysoinnista. Se käyttää BookCorpusta ja englanninkielistä Wikipediaa malleina viitteiden esikoulutukseen, koska se on oppinut 800 miljoonaa ja 2,5 miljardia sanaa.

BERT julkistettiin ensimmäisen kerran avoimen lähdekoodin tutkimusprojekti ja akateeminen paperi lokakuussa 2018. Tekniikka on sittemmin otettu käyttöön Google-haussa. Varhainen kirjallisuus Tietoja BERT: stä vertaa sitä OpenAI: n ChatGPT: hen marraskuussa 2018 ja huomauttaa, että Googlen tekniikka on syvään kaksisuuntaista, mikä auttaa ennakoimaan saapuvaa tekstiä. Samaan aikaan OpenAI GPT on yksisuuntainen ja voi vastata vain monimutkaisiin kyselyihin.

Googlen Meena

Meena on chatbot Google esitteli tammikuussa 2020 kyvyllä keskustella inhimillisesti. Esimerkkejä sen toiminnoista ovat yksinkertaiset keskustelut, jotka sisältävät mielenkiintoisia vitsejä ja sanaleikkejä, kuten Meena ehdottaa lehmiä opiskelemaan "Nautatieteitä" Harvardissa.

Esimerkki Google Meena chatbotista.

Suorana vaihtoehtona OpenAI: n GPT-2:lle Meena kykeni käsittelemään 8,5 kertaa niin paljon dataa kuin kilpailijansa tuolloin. Sen hermoverkko käsittää 2,6 parametria ja se on koulutettu julkisiin sosiaalisen median keskusteluihin. Meena sai myös Sensibleness and Spesicity Average (SSA) -mittarin 79 %, mikä tekee siitä yhden aikansa älykkäimmistä chatboteista.

Meenan koodi on saatavilla osoitteessa GitHub.

RoBERTa Facebookilta

Roberta (Robustly Optimized BERT Pretraining Approach) on toinen edistynyt versio alkuperäisestä BERT: stä, joka Facebook ilmoitti heinäkuussa 2019.

Facebook loi tämän NLP-mallin, jonka esikoulutusmallina oli suurempi tietolähde. RoBERTa käyttää 76 Gt: n tietojoukona CommonCrawlia (CC-News), joka sisältää 63 miljoonaa englanninkielistä uutisartikkelia, jotka on luotu syyskuun 2016 ja helmikuun 2019 välisenä aikana. Vertailun vuoksi, alkuperäinen BERT käyttää 16 Gt dataa englanninkielisten Wikipedian ja BookCorpusin tietojoukkojen välillä Facebookin mukaan.

Silimar XLNetille, RoBERTa voitti BERTin joukossa vertailutietosarjoja Facebookin tutkimuksen mukaan. Näiden tulosten saamiseksi yritys ei vain käyttänyt suurempaa tietolähdettä, vaan myös esikouluttanut malliaan a pidemmän ajan.

Facebook teki RoBERTa avoin lähdekoodi syyskuussa 2019, ja sen koodi on saatavilla GitHubissa yhteisölliseen kokeiluun.

VentureBeat mainitsi myös GPT-2:n tuona aikana nousevien tekoälyjärjestelmien joukossa.

Googlen XLNet

XLNET on muuntajapohjainen autoregressiivinen kielimalli, jonka on kehittänyt tiimi Google Brainin ja Carnegie Mellonin yliopiston tutkijat. Malli on pohjimmiltaan edistyneempi BERT, ja se esiteltiin ensimmäisen kerran kesäkuussa 2019. Ryhmä havaitsi XLNetin olevan vähintään 16 % tehokkaampi kuin alkuperäinen BERT, joka julkistettiin vuonna 2018, ja se pystyi voittamaan BERT: n 20 NLP-tehtävän testissä.

XLNet: uusi esikoulutusmenetelmä NLP: lle, joka parantaa merkittävästi BERT: tä 20 tehtävässä (esim. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (koodi + esikoulutetut mallit): https://t.co/kI4jsVzT1u

Zhilin Yangin kanssa, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

- Quoc Le (@quocleix) 20. kesäkuuta 2019

Kun sekä XLNet että BERT käyttävät "naamioituja" tunnuksia piilotetun tekstin ennustamiseen, XLNet parantaa tehokkuutta nopeuttamalla prosessin ennakoivaa osaa. Esimerkiksi Amazon Alexa datatieteilijä Aishwarya Srinivasan selitti että XLNet pystyy tunnistamaan sanan "Uusi" liittyvän termiin "on kaupunki", ennen kuin ennustaa termin "York" liittyvän myös tähän termiin. Sillä välin BERT: n on tunnistettava sanat "New" ja "York" erikseen ja yhdistettävä ne sitten esimerkiksi termiin "on kaupunki".

Erityisesti GPT ja GPT-2 ovat myös mainittu tässä selityksessä vuodelta 2019 muina esimerkkeinä autoregressiivisistä kielimalleista.

XLNet-koodi ja esiopetetut mallit ovat saatavilla GitHubissa. Malli on tunnettu NLP-tutkijayhteisössä.

Microsoft Researchin DialoGPT

DialoGPT (dialogue Generatiivinen esikoulutettu muuntaja) on autoregressiivinen kielimalli, joka esiteltiin marraskuussa 2019 Microsoft Researchin toimesta. Malli oli samankaltainen kuin GPT-2, joten se oli esiopetettu synnyttämään ihmisen kaltaista keskustelua. Sen ensisijainen tietolähde oli kuitenkin 147 miljoonaa Reddit-säikeistä kaavittua monikäänteistä dialogia.

DiabloGPT usean kierroksen sukupolven esimerkkejä.

HumanFirstin pääevankelista Cobus Greyling on huomauttanut hänen menestyksestään DialoGPT: n käyttöönotossa Telegram-viestipalveluun tuodakseen mallin eloon chatbotina. Hän lisäsi, että Amazon Web Services ja Amazon SageMaker voi auttaa koodin hienosäädössä.

DialoGPT-koodi on saatavilla osoitteessa GitHub.

ALBERT Googlelta

ALBERT (Lite BERT) on typistetty versio alkuperäisestä BERT: stä, ja Google kehitti sen joulukuussa 2019.

ALBERTilla Google rajoitti mallissa sallittujen parametrien määrää ottamalla käyttöön parametreja "piilotetun kerroksen upotuksilla".

Koneen suorituskyky Googlen RACE-haasteessa (SAT: n kaltainen luetun ymmärtäminen).

Tämä paransi paitsi BERT-mallia myös XLNetissä ja RoBERTassa, koska ALBERTia voidaan kouluttaa sama suurempi tietojoukko, jota käytettiin kahdessa uudemmassa mallissa, samalla kun noudatettiin pienempiä parametrit. Pohjimmiltaan ALBERT toimii vain toimintojensa edellyttämien parametrien kanssa, mikä lisäsi suorituskykyä ja tarkkuutta. Google tarkensi, että se havaitsi ALBERTin ylittävän BERT-arvon 12 NLP-vertailussa, mukaan lukien SAT-tyyppinen luetun ymmärtämisen vertailuarvo.

Vaikka GPT: tä ei mainita nimellä, se sisältyy ALBERTin kuviin Googlen tutkimusblogissa.

Google julkaisi ALBERTin avoimena lähdekoodina tammikuussa 2020, ja se otettiin käyttöön Googlen TensorFlow'n päälle. Koodi on saatavilla osoitteessa GitHub.

Googlen T5

T5 (Text-to-Text Transferer) on NLP-malli esitteli Google vuonna 2019, joka lainaa lukuisista aikaisemmista malleista, mukaan lukien GPT, BERT, XLNet, RoBERTa ja ALBERT. Se lisää a uusi ja ainutlaatuinen tietojoukko nimeltään Colossal Clean Crawled Corpus (C4), jonka avulla muuntaja voi tuottaa korkeampaa laatua ja kontekstuaaliset tulokset kuin muut tietojoukot verrattuna käytettyihin Common Crawl -verkkokaappauksiin XLNet.
Google T5 tekstistä tekstiksi -siirtomuuntajan esikoulutus.
T5-esikoulutus johti chatbot-sovellusten luomiseen, mukaan lukien InferKit Talk To Transformer ja AI Dungeon peli. Tekstigeneraattorit muistuttavat ChatGPT: tä siinä mielessä, että niiden avulla voit luoda realistisia keskusteluja sen perusteella, mitä tekoäly luo ensimmäisten kehotteiden tai kyselyjen jälkeen.
T5-koodi on saatavilla osoitteessa GitHub.

Salesforcen CTRL

Salesforcen CTRL (Computational Trust and Reasoning Layer) oli yksi suurimmista julkisesti julkaistuista kielimalleista, kun se ilmoitettiin syyskuussa 2019 Salesforcen toimesta. 1,6 miljardin parametrin kielimallilla voidaan analysoida kerralla suuria tekstiosioita, kuten verkkosivuihin liittyviä. Joitakin mahdollisia käytännön käyttötapoja ovat yhdistäminen arvosteluihin, arvioihin ja attribuutteihin.
Salesforce CTRL -lähteen attribuutioesimerkki.
CTRL-kielimalli voi erottaa tietyn kyselyn tarkoituksen välimerkkiin asti. Salesforce huomautti malli voi havaita eron "Maailman lämpeneminen on valhe". epäsuosittu mielipide ja "Maailman lämpeneminen on a valehdella" salaliittoteoriana, koska lauseiden jakson erot ja laativat vastaavat Reddit-säikeet jokainen.
CTRL-viittauksia jopa 140 Gt dataa esikoulutusta varten lähteistä, mukaan lukien Wikipedia, Project Gutenberg, Amazon-arvostelut ja Reddit. Se viittaa myös useisiin kansainvälisiin uutis-, tieto- ja triviaresursseihin.
CTRL-koodi on saatavilla osoitteessa GitHub.

Googlen GShard

GShard on a jättiläinen kielenkäännösmalli että Google esitteli kesäkuussa 2020 neuroverkon skaalausta varten. Malli sisältää 600 miljardia parametria, mikä mahdollistaa suuria tietojoukkoja kerralla. GShard on erityisen taitava kielen käännös ja koulutettu kääntämään 100 kieltä englanniksi neljässä päivässä.

Facebook AI Researchin Blender

Blender on avoimen lähdekoodin chatbot, joka otettiin käyttöön vuonna Huhtikuu 2020 Facebook AI Researchin toimesta. Chatbotin on todettu parantaneen keskustelutaitoja kilpailijamalleihin verrattuna, ja sen kyky tarjota mukaansatempaavia keskustelunaiheita, kuuntele ja osoita ymmärtäväsi kumppanin panosta sekä esittele empatiaa ja persoonallisuutta.

Esimerkki Blenderin chatbotista.

Blenderia on verrattu Googlen Meena-chatbotiin, jota on puolestaan ​​verrattu OpenAI: n GPT-2:een.

Blender-koodi on saatavilla osoitteessa Parl.ai.

Googlen Pegasus

Pegasus on luonnollinen kielenkäsittelymalli, joka oli esitteli Google joulukuussa 2019. Pegasus voidaan kouluttaa luomaan yhteenvetoja, ja muiden mallien, kuten BERT, GPT-2, RoBERTa, XLNet, ALBERT ja T5, tapaan se voidaan hienosäätää tiettyihin tehtäviin. Pegasuksen tehokkuutta uutisten, tieteen, tarinoiden, ohjeiden, sähköpostien, patenttien ja lakiesityksen tekemisessä on testattu verrattuna ihmisiin.

PEGASUS NLP: tä on verrattu ihmiseen yhteenvetolaadun suhteen.

Pegasus-koodi on saatavilla osoitteessa GitHub.

Toimittajien suositukset

  • Google Bard voi nyt puhua, mutta voiko se tukahduttaa ChatGPT: n?
  • ChatGPT: viimeisimmät uutiset, kiistat ja vinkit, jotka sinun on tiedettävä
  • ChatGPT-verkkosivustojen liikenne on laskenut ensimmäistä kertaa
  • ChatGPT: n Bing-selausominaisuus on poistettu käytöstä maksumuurin käyttövirheen vuoksi
  • Parhaat tekoäly-chatbotit kokeiltavaksi: ChatGPT, Bard ja paljon muuta