ChatGPT je hitro postal ljubljenec generativne umetne inteligence, vendar pa ni edini igralec v igri. Poleg vsa druga orodja AI ki delajo stvari, kot je ustvarjanje slik, obstajajo tudi številni neposredni konkurenti ChatGPT - vsaj tako sem predvideval.
Vsebina
- Microsoftov Bing
- Google BERT
- Google Meena
- RoBERTa preko Facebooka
- XLNet od Googla
- DialoGPT podjetja Microsoft Research
- ALBERT iz Googla
- T5 od Googla
- CTRL s strani Salesforce
- Google GShard
- Blender podjetja Facebook AI Research
- Pegasus od Googla
Zakaj ne bi o tem vprašali ChatGPT? Točno to sem naredil, da sem dobil ta seznam, v upanju, da bom našel nekaj možnosti zanje soočajo z obvestili o "zasedenosti"., ali drugi, ki samo želijo poskusiti nekaj novega. Vsi ti niso tako dostopni javnosti kot ChatGPT, vendar so glede na ChatGPT to najboljše alternative.
Priporočeni videoposnetki
Microsoftov Bing
Preden se lotite izbire, ki jo je navedel AI, je najboljša alternativa ChatGPT, no, ChatGPT. Microsoft pred kratkim dodal AI v svoj iskalnik Bing, in načrtuje, da bo to funkcijo kmalu predstavil v brskalniku Edge.
Povezano
- Izdelovalec ChatGPT OpenAI se sooča s preiskavo FTC zaradi zakonov o varstvu potrošnikov
- Rekordno rast ChatGPT je pravkar zrušila nova virusna aplikacija
- OpenAI ustvarja novo ekipo, ki bo preprečila, da bi superinteligentni AI postal lopov
Je samo v predogledu, vendar lahko še vedno preizkusite novega klepetalnega robota z umetno inteligenco na bing.com/novo takoj zdaj. Microsoft pravi, da na začetku omejuje število poizvedb, vendar lahko pridružite se čakalni listi Bing ChatGPT obveščeni, ko bo na voljo polna različica.
Google BERT
BERT (Bidirectional Encoder Representations from Transformers) je model strojnega učenja, ki ga je razvil Google. Veliko rezultatov ChatGPT omenja Googlove projekte, ki jih boste videli pozneje na tem seznamu.
BERT je znan po svojih sposobnostih obdelave naravnega jezika (NLP), kot sta odgovarjanje na vprašanja in analiza čustev. Kot modela za reference pred usposabljanjem uporablja BookCorpus in angleško Wikipedijo, saj se je naučil 800 milijonov oziroma 2,5 milijarde besed.
BERT je bil prvič objavljen kot odprtokodni raziskovalni projekt in akademski prispevek oktobra 2018. Tehnologija je bila od takrat implementirana v Iskanje Google. Zgodnja literatura o BERT-u primerjajte ga s ChatGPT OpenAI novembra 2018, pri čemer upoštevajte, da je Googlova tehnologija globoko dvosmerna, kar pomaga pri predvidevanju dohodnega besedila. Medtem je OpenAI GPT enosmeren in lahko odgovarja samo na zapletene poizvedbe.
Google Meena
Meena je chatbot, ki Google predstavil januarja 2020 s sposobnostjo pogovarjanja na človeški način. Primeri njegovih funkcij vključujejo preproste pogovore, ki vključujejo zanimive šale in besedne igre, na primer Meena, ki predlaga, da krave študirajo »znanosti o govedo« na Harvardu.
Kot neposredna alternativa GPT-2 OpenAI je Meena lahko obdelala 8,5-krat več podatkov kot njen tekmec v tistem času. Njegova nevronska mreža obsega 2,6 parametrov in je usposobljena za pogovore v družbenih medijih v javni domeni. Meena je prejela tudi metrično oceno v povprečju občutljivosti in specifičnosti (SSA) v višini 79 %, zaradi česar je eden najbolj inteligentnih klepetalnih robotov svojega časa.
Koda Meena je na voljo na GitHub.
RoBERTa preko Facebooka
RoBERTa (Robustly Optimized BERT Pretraining Approach) je še ena napredna različica originalnega BERT, ki Facebook objavil julija 2019.
Facebook je ustvaril ta model NLP z večjim virom podatkov kot model pred usposabljanjem. RoBERTa uporablja CommonCrawl (CC-News), ki vključuje 63 milijonov angleških člankov z novicami, ustvarjenih med septembrom 2016 in februarjem 2019, kot svoj nabor podatkov v velikosti 76 GB. Za primerjavo, prvotni BERT uporablja 16 GB podatkov med svojimi nabori podatkov iz angleške Wikipedije in BookCorpus, glede na Facebook.
Silimar v XLNet, RoBERTa je premagal BERT v naboru primerjalnih podatkovnih nizov, glede na Facebookovo raziskavo. Za pridobitev teh rezultatov podjetje ni le uporabilo večji vir podatkov, ampak je svoj model tudi predhodno usposobilo za a daljše časovno obdobje.
Facebook je ustvaril RoBERTa odprtokodno septembra 2019, njegova koda pa je na voljo na GitHubu za skupnostno eksperimentiranje.
VentureBeat omenil tudi GPT-2 med nastajajočimi sistemi AI v tem času.
XLNet od Googla
XLNET je transformatorski avtoregresivni jezikovni model, ki ga je razvila ekipa Google Brain in raziskovalci univerze Carnegie Mellon. Model je v bistvu naprednejši BERT in je bil prvič predstavljen junija 2019. Skupina je ugotovila, da je XLNet vsaj 16 % bolj učinkovit kot prvotni BERT, ki je bil objavljen leta 2018, pri čemer je lahko premagal BERT v testu 20 NLP nalog.
XLNet: nova metoda predusposabljanja za NLP, ki bistveno izboljša BERT pri 20 nalogah (npr. SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (koda + vnaprej pripravljeni modeli): https://t.co/kI4jsVzT1u
z Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20. junij 2019
Ker tako XLNet kot BERT uporabljata "zamaskirane" žetone za predvidevanje skritega besedila, XLNet izboljšuje učinkovitost s pospešitvijo napovednega dela procesa. Na primer Amazon Alexa podatkovna znanstvenica Aishwarya Srinivasan pojasnil da lahko XLNet identificira besedo »Novo« kot povezano z izrazom »je mesto«, preden predvideva, da je izraz »York« prav tako povezan s tem izrazom. Medtem mora BERT ločeno identificirati besedi »New« in »York« in ju nato na primer povezati z izrazom »is a city«.
Predvsem GPT in GPT-2 sta tudi omenjeno v tem razlagalniku iz leta 2019 kot drugi primeri avtoregresivnih jezikovnih modelov.
Koda XLNet in vnaprej pripravljeni modeli so na voljo na GitHubu. Model je dobro poznan v raziskovalni skupnosti NLP.
DialoGPT podjetja Microsoft Research
DialoGPT (Dialogue Generative Pre-trained Transformer) je avtoregresivni jezikovni model, ki je bil predstavljen novembra 2019 s strani Microsoft Research. Zaradi podobnosti z GPT-2 je bil model vnaprej usposobljen za ustvarjanje pogovora, podobnega človeku. Vendar pa je bil njegov glavni vir informacij 147 milijonov večobratnih dialogov, postrganih iz niti Reddit.
Glavni evangelist organizacije HumanFirst Cobus Greyling je opozoril njegov uspeh pri implementaciji DialoGPT v sporočilno storitev Telegram, da bi model zaživel kot chatbot. Dodal je, da lahko uporaba Amazon Web Services in Amazon SageMaker pomaga pri natančnem prilagajanju kode.
Koda DialoGPT je na voljo na GitHub.
ALBERT iz Googla
ALBERT (A Lite BERT) je skrajšana različica prvotnega BERT-a in ga je Google razvil decembra 2019.
Z ALBERT-om je Google omejil število dovoljenih parametrov v modelu z uvedbo parametrov z »vdelavami skritih slojev«.
To se ni izboljšalo samo na modelu BERT, ampak tudi na XLNet in RoBERTa, ker je ALBERT mogoče učiti na isti večji podatkovni niz informacij, ki se uporablja za dva novejša modela, medtem ko se držijo manjših parametri. V bistvu ALBERT deluje le s parametri, potrebnimi za njegove funkcije, kar je povečalo zmogljivost in natančnost. Google je navedel, da je ugotovil, da ALBERT presega BERT pri 12 merilih uspešnosti NLP, vključno z merilom bralnega razumevanja, podobnim SAT.
Čeprav ni omenjen z imenom, je GPT vključen v slike za ALBERT v Googlovem raziskovalnem blogu.
Google je ALBERT izdal kot odprtokoden januarja 2020 in je bil implementiran poleg Googlovega TensorFlow. Koda je na voljo na GitHub.
T5 od Googla
CTRL s strani Salesforce
Google GShard
GShard je a velikanski jezikovni prevajalski model to Google predstavil junija 2020 za namen skaliranja nevronske mreže. Model vključuje 600 milijard parametrov, kar omogoča usposabljanje velikih naborov podatkov hkrati. GShard je še posebej spreten prevod jezika in biti usposobljen za prevajanje 100 jezikov v angleščino v štirih dneh.
Blender podjetja Facebook AI Research
Blender je odprtokodni klepetalni robot, ki je bil predstavljen v april 2020 avtor Facebook AI Research. Ugotovljeno je bilo, da ima chatbot izboljšane pogovorne sposobnosti v primerjavi s konkurenčnimi modeli, z možnostjo zagotavljanja pritegne pozornost, prisluhne in pokaže razumevanje partnerjevega prispevka ter pokaže empatijo in osebnost.
Blender so primerjali z Googlovim klepetalnim botom Meena, tega pa z GPT-2 OpenAI
Koda Blender je na voljo na Parl.ai.
Pegasus od Googla
Pegasus je model za obdelavo naravnega jezika, ki je bil predstavil Google decembra 2019. Pegasus je mogoče usposobiti za ustvarjanje povzetkov in podobno kot druge modele, kot so BERT, GPT-2, RoBERTa, XLNet, ALBERT in T5, ga je mogoče natančno prilagoditi specifičnim nalogam. Pegasus je bil preizkušen glede njegove učinkovitosti pri povzemanju novic, znanosti, zgodb, navodil, elektronske pošte, patentov in zakonodajnih predlogov v primerjavi z ljudmi.
Koda Pegasus je na voljo na GitHub.
Priporočila urednikov
- Google Bard lahko zdaj govori, a ali lahko preglasi ChatGPT?
- ChatGPT: najnovejše novice, polemike in nasveti, ki jih morate vedeti
- Obisk spletnega mesta ChatGPT je prvič upadel
- Funkcija brskanja Bing ChatGPT je onemogočena zaradi napake pri dostopu do plačljivega zidu
- Najboljši klepetalni roboti z umetno inteligenco, ki jih lahko preizkusite: ChatGPT, Bard in drugi