ChatGPT je brzo postao miljenik generativne umjetne inteligencije, ali teško da je jedini igrač u igri. Osim toga svi ostali AI alati vani koji rade stvari poput generiranja slika, postoji i niz izravnih konkurenata s ChatGPT-om - ili sam barem tako pretpostavio.
Sadržaj
- Bing tvrtke Microsoft
- BERT od Googlea
- Meena od Googlea
- RoBERTa putem Facebooka
- XLNet od Googlea
- DialoGPT tvrtke Microsoft Research
- ALBERT od Googlea
- T5 od Googlea
- CTRL od Salesforcea
- GShard od Googlea
- Blender tvrtke Facebook AI Research
- Google Pegasus
Zašto ne pitate ChatGPT o tome? Upravo sam to učinio da dobijem ovaj popis, nadajući se da ću pronaći neke opcije za njih suočavajući se s obavijestima "prema kapacitetu"., ili drugima koji samo žele isprobati nešto novo. Nisu sve dostupne javnosti kao ChatGPT, ali prema ChatGPT-u, ovo su najbolje alternative.
Preporučeni videozapisi
Bing tvrtke Microsoft
Prije nego što uđete u odabire koje je naveo AI, najbolja alternativa ChatGPT-u je, pa, ChatGPT. Microsoft nedavno dodao AI u svoju tražilicu Bing, a planira uskoro uvesti značajku u Edge preglednik.
Povezano
- Proizvođač ChatGPT-a OpenAI suočava se s istragom FTC-a zbog zakona o zaštiti potrošača
- Rekordni rast ChatGPT-a upravo je skinuta s trona novom virusnom aplikacijom
- OpenAI gradi novi tim koji će spriječiti da superinteligentna umjetna inteligencija postane skitnica
Tek je u pretpregledu, ali još uvijek možete isprobati novi AI chatbot na bing.com/novo sada. Microsoft kaže da u početku ograničava broj upita, ali možete pridružite se Bing ChatGPT listi čekanja biti obaviješten kada puna verzija bude dostupna.
BERT od Googlea
BERT (Bidirectional Encoder Representations from Transformers) je model strojnog učenja koji je razvio Google. Mnogi rezultati ChatGPT-a spominju Googleove projekte, koje ćete vidjeti kasnije na ovom popisu.
BERT je poznat po svojim sposobnostima obrade prirodnog jezika (NLP), poput odgovaranja na pitanja i analize osjećaja. Koristi BookCorpus i englesku Wikipediju kao svoje modele za reference prije obuke, naučivši 800 milijuna odnosno 2,5 milijarde riječi.
BERT je prvi put najavljen kao open-source istraživački projekt i akademski rad u listopadu 2018. Tehnologija je od tada implementirana u Google pretraživanje. Rana književnost o BERT-u usporedite ga s OpenAI-jevim ChatGPT-om u studenom 2018., uz napomenu da je Googleova tehnologija duboko dvosmjerna, što pomaže u predviđanju dolaznog teksta. U međuvremenu, OpenAI GPT je jednosmjeran i može odgovoriti samo na složene upite.
Meena od Googlea
Meena je chatbot koji Google predstavio u siječnju 2020. sa sposobnošću razgovora na ljudski način. Primjeri njegovih funkcija uključuju jednostavne razgovore koji uključuju zanimljive šale i dosjetke, poput Meene koja predlaže da krave studiraju "znanosti o govedu" na Harvardu.
Kao izravna alternativa OpenAI-jevom GPT-2, Meena je imala mogućnost obrade 8,5 puta više podataka od svog konkurenta u to vrijeme. Njegova neuronska mreža sastoji se od 2,6 parametara i obučava se na razgovorima u javnoj domeni na društvenim mrežama. Meena je također dobila metričku ocjenu u prosjeku osjetljivosti i specifičnosti (SSA) od 79%, što je čini jednim od najinteligentnijih chatbota svog vremena.
Kod Meena dostupan je na GitHub.
RoBERTa putem Facebooka
RoBERTa (Robustly Optimized BERT Pretraining Approach) još je jedna napredna verzija originalnog BERT-a, koji objavio Facebook u srpnju 2019.
Facebook stvorio je ovaj NLP model s većim izvorom podataka kao modelom prije treninga. RoBERTa koristi CommonCrawl (CC-News), koji uključuje 63 milijuna engleskih članaka vijesti generiranih između rujna 2016. i veljače 2019., kao svoj skup podataka od 76 GB. Za usporedbu, izvorni BERT koristi 16 GB podataka između svoje engleske Wikipedije i BookCorpusa, prema Facebooku.
Silimar za XLNet, RoBERTa je pobijedio BERT u skupu referentnih skupova podataka, prema istraživanju Facebooka. Kako bi dobila ove rezultate, tvrtka ne samo da je koristila veći izvor podataka, već je i unaprijed uvježbala svoj model za a duži vremenski period.
Facebook je napravio RoBERTa otvoreni izvor u rujnu 2019., a šifra mu je dostupno na GitHubu za eksperimentiranje u zajednici.
VentureBeat također je spomenuo GPT-2 među nastajućim AI sustavima u to vrijeme.
XLNet od Googlea
XLNET je autoregresivni jezični model temeljen na transformatoru koji je razvio tim Google Brain i istraživači Sveučilišta Carnegie Mellon. Model je u biti napredniji BERT i prvi put je predstavljen u lipnju 2019. Grupa je utvrdila da je XLNet barem 16% učinkovitiji od izvornog BERT-a, koji je najavljen 2018., s njim je mogao pobijediti BERT u testu od 20 NLP zadataka.
XLNet: nova metoda predtreninga za NLP koja značajno poboljšava BERT na 20 zadataka (npr. SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (kod + unaprijed obučeni modeli): https://t.co/kI4jsVzT1u
sa Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20. lipnja 2019
Uz XLNet i BERT koji koriste "maskirane" tokene za predviđanje skrivenog teksta, XLNet poboljšava učinkovitost ubrzavanjem prediktivnog dijela procesa. Na primjer, Amazon Alexa podatkovna znanstvenica Aishwarya Srinivasan objasnio da XLNet može identificirati riječ "Novi" kao povezanu s pojmom "je grad" prije nego što predvidi da je pojam "York" također povezan s tim izrazom. U međuvremenu, BERT treba zasebno identificirati riječi "New" i "York" i zatim ih povezati s izrazom "is a city", na primjer.
Naime, GPT i GPT-2 jesu također spomenuto u ovom objašnjenju iz 2019. kao drugi primjeri autoregresivnih jezičnih modela.
XLNet kod i unaprijed obučeni modeli su dostupno na GitHubu. Model je dobro poznat u NLP istraživačkoj zajednici.
DialoGPT tvrtke Microsoft Research
DialoGPT (Dialogue Generative Pre-trained Transformer) je autoregresivni jezični model koji je uveden u studenom 2019. od strane Microsoft Researcha. Sa sličnostima s GPT-2, model je prethodno uvježban za generiranje ljudskog razgovora. Međutim, njegov primarni izvor informacija bilo je 147 milijuna multi-turn dijaloga sastruganih iz Reddit niti.
Glavni evangelizator HumanFirsta Cobus Greyling primijetio je njegov uspjeh u implementaciji DialoGPT-a u uslugu razmjene poruka Telegram kako bi model zaživio kao chatbot. Dodao je da korištenje Amazon Web Services i Amazon SageMaker može pomoći u finom podešavanju koda.
DialoGPT kod dostupan je na GitHub.
ALBERT od Googlea
ALBERT (A Lite BERT) je skraćena verzija izvornog BERT-a, a razvio ju je Google u prosincu 2019.
Uz ALBERT, Google je ograničio broj dopuštenih parametara u modelu uvođenjem parametara sa "skrivenim ugrađivanjem slojeva".
Ovo je poboljšano ne samo na modelu BERT, već i na XLNet i RoBERTa jer se ALBERT može trenirati na isti veći skup podataka koji se koristi za dva novija modela uz pridržavanje manjeg parametri. U biti, ALBERT radi samo s parametrima potrebnim za svoje funkcije, što je povećalo performanse i točnost. Google je detaljno naveo da je utvrdio da ALBERT premašuje BERT na 12 NLP mjerila, uključujući SAT-ovo mjerilo razumijevanja čitanja.
Iako nije spomenut imenom, GPT je uključen u slike za ALBERT na Googleovom istraživačkom blogu.
Google je objavio ALBERT kao open-source u siječnju 2020., a implementiran je povrh Googleovog TensorFlowa. Kod je dostupan na GitHub.
T5 od Googlea
CTRL od Salesforcea
GShard od Googlea
GShard je a divovski model jezičnog prevođenja da Google predstavio u lipnju 2020. u svrhu skaliranja neuronske mreže. Model uključuje 600 milijardi parametara, što omogućuje obuku velikih skupova podataka odjednom. GShard je posebno vješt u jezični prijevod i biti obučen za prevođenje 100 jezika na engleski u četiri dana.
Blender tvrtke Facebook AI Research
Blender je chatbot otvorenog koda koji je predstavljen u travanj 2020 od strane Facebook AI Research. Primijećeno je da je chatbot poboljšao vještine razgovora u odnosu na konkurentske modele, uz mogućnost pružanja angažirajući teme za razgovor, slušajte i pokažite razumijevanje za doprinos partnera te pokažite empatiju i osobnost.
Blender je uspoređen s Googleovim chatbotom Meena, koji je pak uspoređen s OpenAI-jevim GPT-2
Blender kod je dostupan na Parl.ai.
Google Pegasus
Pegasus je model obrade prirodnog jezika koji je bio predstavio Google u prosincu 2019. Pegasus se može uvježbati za izradu sažetaka, a slično drugim modelima kao što su BERT, GPT-2, RoBERTa, XLNet, ALBERT i T5, može se fino prilagoditi određenim zadacima. Pegasus je testiran na njegovu učinkovitost u sažimanju vijesti, znanosti, priča, uputa, e-pošte, patenata i zakonskih zakona u usporedbi s ljudskim subjektima.
Pegazov kod je dostupan na GitHub.
Preporuke urednika
- Google Bard sada može govoriti, ali može li ugušiti ChatGPT?
- ChatGPT: najnovije vijesti, kontroverze i savjeti koje trebate znati
- Promet web stranice ChatGPT pao je po prvi put
- ChatGPT-ova Bing značajka pregledavanja onemogućena je zbog greške u pristupu sustavu plaćanja
- Najbolji AI chatbotovi koje možete isprobati: ChatGPT, Bard i drugi