ChatGPT on nopeasti tullut generatiivisen tekoälyn rakas, mutta se tuskin on pelin ainoa pelaaja. Lisäksi kaikki muut AI-työkalut jotka tekevät esimerkiksi kuvan luomisen, ChatGPT: llä on myös useita suoria kilpailijoita – tai niin oletin.
Sisällys
- Microsoftin Bing
- Googlen BERT
- Googlen Meena
- RoBERTa Facebookilta
- Googlen XLNet
- Microsoft Researchin DialoGPT
- ALBERT Googlelta
- Googlen T5
- Salesforcen CTRL
- Googlen GShard
- Facebook AI Researchin Blender
- Googlen Pegasus
Mikset kysy ChatGPT: ltä siitä? Juuri näin tein saadakseni tämän luettelon toivoen löytäväni joitain vaihtoehtoja niille kohtaa "kapasiteettiin" -ilmoituksia, tai muut, jotka haluavat vain kokeilla jotain uutta. Kaikki nämä eivät ole yhtä yleisön saatavilla kuin ChatGPT, mutta ChatGPT: n mukaan nämä ovat parhaita vaihtoehtoja.
Suositellut videot
Microsoftin Bing
Ennen kuin pääset tekoälyn listaamiin valintoihin, paras vaihtoehto ChatGPT: lle on ChatGPT. Microsoft äskettäin lisäsi tekoälyn Bing-hakukoneeseensa, ja se aikoo julkaista ominaisuuden pian Edge-selaimessa.
Liittyvät
- ChatGPT-valmistaja OpenAI kohtaa FTC: n tutkinnan kuluttajansuojalaeista
- ChatGPT: n ennätyskasvu syrjäytti juuri uuden virussovelluksen
- OpenAI rakentaa uutta tiimiä estääkseen superälykkään tekoälyn huijauksen
Se on vasta esikatselussa, mutta voit silti kokeilla uutta AI-chatbotia osoitteessa bing.com/new juuri nyt. Microsoft sanoo, että se rajoittaa kyselyiden määrää aluksi, mutta voit Liity Bing ChatGPT: n jonotuslistalle saada ilmoituksen, kun täysversio on saatavilla.
Googlen BERT
BERT (Bidirectional Encoder Representations from Transformers) on Googlen kehittämä koneoppimismalli. Useissa ChatGPT: n tuloksissa mainittiin Googlen projektit, jotka näet myöhemmin tässä luettelossa.
BERT tunnetaan luonnollisen kielenkäsittelyn (NLP) kyvystään, kuten kysymysvastaamisesta ja tunteiden analysoinnista. Se käyttää BookCorpusta ja englanninkielistä Wikipediaa malleina viitteiden esikoulutukseen, koska se on oppinut 800 miljoonaa ja 2,5 miljardia sanaa.
BERT julkistettiin ensimmäisen kerran avoimen lähdekoodin tutkimusprojekti ja akateeminen paperi lokakuussa 2018. Tekniikka on sittemmin otettu käyttöön Google-haussa. Varhainen kirjallisuus Tietoja BERT: stä vertaa sitä OpenAI: n ChatGPT: hen marraskuussa 2018 ja huomauttaa, että Googlen tekniikka on syvään kaksisuuntaista, mikä auttaa ennakoimaan saapuvaa tekstiä. Samaan aikaan OpenAI GPT on yksisuuntainen ja voi vastata vain monimutkaisiin kyselyihin.
Googlen Meena
Meena on chatbot Google esitteli tammikuussa 2020 kyvyllä keskustella inhimillisesti. Esimerkkejä sen toiminnoista ovat yksinkertaiset keskustelut, jotka sisältävät mielenkiintoisia vitsejä ja sanaleikkejä, kuten Meena ehdottaa lehmiä opiskelemaan "Nautatieteitä" Harvardissa.
Suorana vaihtoehtona OpenAI: n GPT-2:lle Meena kykeni käsittelemään 8,5 kertaa niin paljon dataa kuin kilpailijansa tuolloin. Sen hermoverkko käsittää 2,6 parametria ja se on koulutettu julkisiin sosiaalisen median keskusteluihin. Meena sai myös Sensibleness and Spesicity Average (SSA) -mittarin 79 %, mikä tekee siitä yhden aikansa älykkäimmistä chatboteista.
Meenan koodi on saatavilla osoitteessa GitHub.
RoBERTa Facebookilta
Roberta (Robustly Optimized BERT Pretraining Approach) on toinen edistynyt versio alkuperäisestä BERT: stä, joka Facebook ilmoitti heinäkuussa 2019.
Facebook loi tämän NLP-mallin, jonka esikoulutusmallina oli suurempi tietolähde. RoBERTa käyttää 76 Gt: n tietojoukona CommonCrawlia (CC-News), joka sisältää 63 miljoonaa englanninkielistä uutisartikkelia, jotka on luotu syyskuun 2016 ja helmikuun 2019 välisenä aikana. Vertailun vuoksi, alkuperäinen BERT käyttää 16 Gt dataa englanninkielisten Wikipedian ja BookCorpusin tietojoukkojen välillä Facebookin mukaan.
Silimar XLNetille, RoBERTa voitti BERTin joukossa vertailutietosarjoja Facebookin tutkimuksen mukaan. Näiden tulosten saamiseksi yritys ei vain käyttänyt suurempaa tietolähdettä, vaan myös esikouluttanut malliaan a pidemmän ajan.
Facebook teki RoBERTa avoin lähdekoodi syyskuussa 2019, ja sen koodi on saatavilla GitHubissa yhteisölliseen kokeiluun.
VentureBeat mainitsi myös GPT-2:n tuona aikana nousevien tekoälyjärjestelmien joukossa.
Googlen XLNet
XLNET on muuntajapohjainen autoregressiivinen kielimalli, jonka on kehittänyt tiimi Google Brainin ja Carnegie Mellonin yliopiston tutkijat. Malli on pohjimmiltaan edistyneempi BERT, ja se esiteltiin ensimmäisen kerran kesäkuussa 2019. Ryhmä havaitsi XLNetin olevan vähintään 16 % tehokkaampi kuin alkuperäinen BERT, joka julkistettiin vuonna 2018, ja se pystyi voittamaan BERT: n 20 NLP-tehtävän testissä.
XLNet: uusi esikoulutusmenetelmä NLP: lle, joka parantaa merkittävästi BERT: tä 20 tehtävässä (esim. SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (koodi + esikoulutetut mallit): https://t.co/kI4jsVzT1u
Zhilin Yangin kanssa, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
- Quoc Le (@quocleix) 20. kesäkuuta 2019
Kun sekä XLNet että BERT käyttävät "naamioituja" tunnuksia piilotetun tekstin ennustamiseen, XLNet parantaa tehokkuutta nopeuttamalla prosessin ennakoivaa osaa. Esimerkiksi Amazon Alexa datatieteilijä Aishwarya Srinivasan selitti että XLNet pystyy tunnistamaan sanan "Uusi" liittyvän termiin "on kaupunki", ennen kuin ennustaa termin "York" liittyvän myös tähän termiin. Sillä välin BERT: n on tunnistettava sanat "New" ja "York" erikseen ja yhdistettävä ne sitten esimerkiksi termiin "on kaupunki".
Erityisesti GPT ja GPT-2 ovat myös mainittu tässä selityksessä vuodelta 2019 muina esimerkkeinä autoregressiivisistä kielimalleista.
XLNet-koodi ja esiopetetut mallit ovat saatavilla GitHubissa. Malli on tunnettu NLP-tutkijayhteisössä.
Microsoft Researchin DialoGPT
DialoGPT (dialogue Generatiivinen esikoulutettu muuntaja) on autoregressiivinen kielimalli, joka esiteltiin marraskuussa 2019 Microsoft Researchin toimesta. Malli oli samankaltainen kuin GPT-2, joten se oli esiopetettu synnyttämään ihmisen kaltaista keskustelua. Sen ensisijainen tietolähde oli kuitenkin 147 miljoonaa Reddit-säikeistä kaavittua monikäänteistä dialogia.
HumanFirstin pääevankelista Cobus Greyling on huomauttanut hänen menestyksestään DialoGPT: n käyttöönotossa Telegram-viestipalveluun tuodakseen mallin eloon chatbotina. Hän lisäsi, että Amazon Web Services ja Amazon SageMaker voi auttaa koodin hienosäädössä.
DialoGPT-koodi on saatavilla osoitteessa GitHub.
ALBERT Googlelta
ALBERT (Lite BERT) on typistetty versio alkuperäisestä BERT: stä, ja Google kehitti sen joulukuussa 2019.
ALBERTilla Google rajoitti mallissa sallittujen parametrien määrää ottamalla käyttöön parametreja "piilotetun kerroksen upotuksilla".
Tämä paransi paitsi BERT-mallia myös XLNetissä ja RoBERTassa, koska ALBERTia voidaan kouluttaa sama suurempi tietojoukko, jota käytettiin kahdessa uudemmassa mallissa, samalla kun noudatettiin pienempiä parametrit. Pohjimmiltaan ALBERT toimii vain toimintojensa edellyttämien parametrien kanssa, mikä lisäsi suorituskykyä ja tarkkuutta. Google tarkensi, että se havaitsi ALBERTin ylittävän BERT-arvon 12 NLP-vertailussa, mukaan lukien SAT-tyyppinen luetun ymmärtämisen vertailuarvo.
Vaikka GPT: tä ei mainita nimellä, se sisältyy ALBERTin kuviin Googlen tutkimusblogissa.
Google julkaisi ALBERTin avoimena lähdekoodina tammikuussa 2020, ja se otettiin käyttöön Googlen TensorFlow'n päälle. Koodi on saatavilla osoitteessa GitHub.
Googlen T5
Salesforcen CTRL
Googlen GShard
GShard on a jättiläinen kielenkäännösmalli että Google esitteli kesäkuussa 2020 neuroverkon skaalausta varten. Malli sisältää 600 miljardia parametria, mikä mahdollistaa suuria tietojoukkoja kerralla. GShard on erityisen taitava kielen käännös ja koulutettu kääntämään 100 kieltä englanniksi neljässä päivässä.
Facebook AI Researchin Blender
Blender on avoimen lähdekoodin chatbot, joka otettiin käyttöön vuonna Huhtikuu 2020 Facebook AI Researchin toimesta. Chatbotin on todettu parantaneen keskustelutaitoja kilpailijamalleihin verrattuna, ja sen kyky tarjota mukaansatempaavia keskustelunaiheita, kuuntele ja osoita ymmärtäväsi kumppanin panosta sekä esittele empatiaa ja persoonallisuutta.
Blenderia on verrattu Googlen Meena-chatbotiin, jota on puolestaan verrattu OpenAI: n GPT-2:een.
Blender-koodi on saatavilla osoitteessa Parl.ai.
Googlen Pegasus
Pegasus on luonnollinen kielenkäsittelymalli, joka oli esitteli Google joulukuussa 2019. Pegasus voidaan kouluttaa luomaan yhteenvetoja, ja muiden mallien, kuten BERT, GPT-2, RoBERTa, XLNet, ALBERT ja T5, tapaan se voidaan hienosäätää tiettyihin tehtäviin. Pegasuksen tehokkuutta uutisten, tieteen, tarinoiden, ohjeiden, sähköpostien, patenttien ja lakiesityksen tekemisessä on testattu verrattuna ihmisiin.
Pegasus-koodi on saatavilla osoitteessa GitHub.
Toimittajien suositukset
- Google Bard voi nyt puhua, mutta voiko se tukahduttaa ChatGPT: n?
- ChatGPT: viimeisimmät uutiset, kiistat ja vinkit, jotka sinun on tiedettävä
- ChatGPT-verkkosivustojen liikenne on laskenut ensimmäistä kertaa
- ChatGPT: n Bing-selausominaisuus on poistettu käytöstä maksumuurin käyttövirheen vuoksi
- Parhaat tekoäly-chatbotit kokeiltavaksi: ChatGPT, Bard ja paljon muuta