Geriausios ChatGPT alternatyvos (pagal ChatGPT)

ChatGPT greitai tapo generatyvaus AI numylėtiniu, tačiau vargu ar tai vienintelis žaidėjas žaidime. Be to visi kiti AI įrankiai kurie atlieka tokius dalykus kaip vaizdo generavimas, taip pat yra keletas tiesioginių „ChatGPT“ konkurentų – ar taip aš maniau.

Turinys

  • „Microsoft“ sukurta „Bing“.
  • „Google“ BERT
  • Meena iš Google
  • RoBERTa iš Facebook
  • Google XLNet
  • „Microsoft Research“ sukurta „DialoGPT“.
  • ALBERTAS iš Google
  • „Google“ T5
  • CTRL per „Salesforce“.
  • „GShard“ iš „Google“.
  • „Facebook“ AI tyrimų „Blender“.
  • „Pegasus“ iš „Google“.

Kodėl apie tai nepaklausus „ChatGPT“? Būtent tai ir padariau, kad gaučiau šį sąrašą, tikėdamasis rasti tam tikrų variantų susiduria su pranešimais „pajėgumas“., arba kiti, kurie tiesiog nori išbandyti ką nors naujo. Ne visi jie yra tokie prieinami visuomenei kaip „ChatGPT“, tačiau, pasak „ChatGPT“, tai yra geriausios alternatyvos.

Rekomenduojami vaizdo įrašai

„Microsoft“ sukurta „Bing“.

„Microsoft“ pertvarkyta „Bing“ paieškos sistema.

Prieš patenkant į AI išvardytus pasirinkimus, geriausia „ChatGPT“ alternatyva yra „ChatGPT“. „Microsoft“ neseniai

pridėjo AI į savo „Bing“ paieškos variklį, ir netrukus planuojama įdiegti šią funkciją į „Edge“ naršyklę.

Susijęs

  • „ChatGPT“ gamintoja „OpenAI“ susiduria su FTC tyrimu dėl vartotojų apsaugos įstatymų
  • Rekordinį ChatGPT augimą ką tik nuvertė nauja virusinė programa
  • OpenAI kuria naują komandą, kad sustabdytų superinteligentiškojo AI nesąžiningumą

Tai tik peržiūra, bet vis tiek galite išbandyti naują AI pokalbių robotą adresu bing.com/new dabar. „Microsoft“ teigia, kad iš pradžių riboja užklausų skaičių, bet jūs galite prisijunkite prie „Bing ChatGPT“ laukiančiųjų sąrašo gauti pranešimą, kai bus pasiekiama pilna versija.

„Google“ BERT

BERT (Bidirectional Encoder Representations from Transformers) yra „Google“ sukurtas mašininio mokymosi modelis. Daugelyje „ChatGPT“ rezultatų buvo paminėti „Google“ projektai, kuriuos pamatysite vėliau šiame sąraše.

BERT yra žinomas dėl savo natūralios kalbos apdorojimo (NLP) gebėjimų, tokių kaip atsakymas į klausimus ir nuotaikų analizė. Jis naudoja „BookCorpus“ ir „Wikipedia“ anglų kalba kaip modelius rengdamas nuorodas, išmokęs atitinkamai 800 milijonų ir 2,5 milijardo žodžių.

BERT pirmą kartą buvo paskelbta kaip atvirojo kodo tyrimų projektas ir akademinis darbas 2018 metų spalio mėnesį. Nuo tada ši technologija buvo įdiegta „Google“ paieškoje. Ankstyvoji literatūra apie BERT palyginkite jį su OpenAI ChatGPT 2018 m. lapkričio mėn., pažymėdami, kad „Google“ technologija yra giliai dvikryptė, o tai padeda numatyti gaunamą tekstą. Tuo tarpu OpenAI GPT yra vienakryptis ir gali atsakyti tik į sudėtingas užklausas.

Meena iš Google

Meena yra pokalbių robotas „Google“ pristatė 2020 m. sausio mėn. su galimybe kalbėtis žmogiškai. Jos funkcijų pavyzdžiai apima paprastus pokalbius, kuriuose yra įdomių juokelių ir kalambūrų, pavyzdžiui, Meena siūlo karvėms studijuoti „galvijų mokslus“ Harvarde.

„Google Meena“ pokalbių roboto pavyzdys.

Kaip tiesioginė alternatyva OpenAI GPT-2, Meena turėjo galimybę apdoroti 8,5 karto daugiau duomenų nei jos konkurentė tuo metu. Jo neuroninį tinklą sudaro 2,6 parametrai ir jis yra apmokytas viešosiose socialinės žiniasklaidos pokalbiuose. Meena taip pat gavo 79% jutimo ir specifiškumo vidurkį (SSA), todėl tai yra vienas iš protingiausių savo laiko pokalbių robotų.

Meena kodas yra prieinamas GitHub.

RoBERTa iš Facebook

RoBERTA (Tvirtai optimizuotas BERT išankstinio mokymo metodas) yra dar viena pažangi originalaus BERT versija, kuri „Facebook“ paskelbė 2019 metų liepos mėnesį.

Facebook sukūrė šį NLP modelį su didesniu duomenų šaltiniu kaip išankstinio mokymo modeliu. „RoBERTa“ kaip 76 GB duomenų rinkinį naudoja „CommonCrawl“ (CC-News), kuri apima 63 milijonus anglų kalbos naujienų straipsnių, sukurtų nuo 2016 m. rugsėjo mėn. iki 2019 m. vasario mėn. Palyginimui, pradinis BERT naudoja 16 GB duomenų tarp savo anglų kalbos Wikipedia ir BookCorpus duomenų rinkinių, teigia „Facebook“.

Remiantis „Facebook“ tyrimu, „Silimar“ ir „XLNet“ „RoBERTa“ įveikė BERT palyginimo duomenų rinkiniuose. Kad gautų šiuos rezultatus, bendrovė ne tik naudojo didesnį duomenų šaltinį, bet ir iš anksto parengė savo modelį a ilgesnį laiką.

„Facebook“ sukūrė „RoBERTa“. atviro kodo 2019 m. rugsėjo mėn., o jo kodas yra pasiekiama GitHub bendruomenės eksperimentams.

VentureBeat taip pat paminėjo GPT-2 tarp tuo metu besiformuojančių AI sistemų.

Google XLNet

XLNET yra transformatoriumi pagrįstas autoregresyvios kalbos modelis, kurį sukūrė komanda Google Brain ir Carnegie Mellon universiteto mokslininkai. Modelis iš esmės yra pažangesnis BERT ir pirmą kartą buvo pristatytas 2019 m. birželio mėn. Grupė nustatė, kad XLNet yra bent jau 16% efektyvesnis nei pradinis BERT, apie kurį buvo pranešta 2018 m., galintis įveikti BERT 20 NLP užduočių teste.

XLNet: naujas išankstinio NLP mokymo metodas, kuris žymiai pagerina BERT 20 užduočių (pvz., SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (kodas + iš anksto paruošti modeliai): https://t.co/kI4jsVzT1u

su Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

– Quoc Le (@quocleix) 2019 m. birželio 20 d

Tiek XLNet, tiek BERT naudojant „užmaskuotus“ žetonus paslėptam tekstui numatyti, XLNet pagerina efektyvumą, pagreitindama nuspėjamą proceso dalį. Pavyzdžiui, „Amazon“. Alexa duomenų mokslininkas Aishwarya Srinivasan paaiškino kad XLNet gali identifikuoti žodį „Naujas“ kaip susijusį su terminu „yra miestas“, prieš numatant terminą „Jorkas“ kaip susijusį su tuo terminu. Tuo tarpu BERT turi atskirti žodžius „New“ ir „York“ ir susieti juos, pavyzdžiui, su terminu „yra miestas“.

Pažymėtina, kad tai yra GPT ir GPT-2 taip pat paminėta šiame paaiškinime nuo 2019 m. kaip kiti autoregresyvių kalbos modelių pavyzdžiai.

XLNet kodas ir paruošti modeliai yra pasiekiama GitHub. Šis modelis yra gerai žinomas tarp NLP tyrimų bendruomenės.

„Microsoft Research“ sukurta „DialoGPT“.

DialoGPT (Dialogue Generative Pre-Tained Transformer) yra autoregresyvus kalbos modelis, buvo pristatytas 2019 m. lapkritį atliko „Microsoft Research“. Turėdamas panašumų į GPT-2, modelis buvo iš anksto paruoštas generuoti žmogišką pokalbį. Tačiau pagrindinis jo informacijos šaltinis buvo 147 milijonai kelių posūkių dialogų, nubrauktų iš „Reddit“ gijų.

DiabloGPT kelių posūkių kartos pavyzdžiai.

„HumanFirst“ vyriausiasis evangelistas Cobusas Greylingas pastebėjo jo sėkmė diegiant DialoGPT į „Telegram“ pranešimų siuntimo paslaugą, kad modelis atgytų kaip pokalbių robotas. Jis pridūrė, kad naudojant „Amazon Web Services“ ir „Amazon SageMaker“ gali padėti tiksliai sureguliuoti kodą.

DialoGPT kodas pasiekiamas GitHub.

ALBERTAS iš Google

ALBERTAS (Lite BERT) yra sutrumpinta originalios BERT versija, kurią „Google“ sukūrė 2019 m. gruodžio mėn.

Naudodama ALBERT, „Google“ apribojo modelyje leidžiamų parametrų skaičių, įvesdama parametrus su „paslėptais sluoksnių įterpimais“.

Įrenginio našumas naudojant „Google“ RACE iššūkį (panašų į SAT skaitymo supratimą).

Tai patobulino ne tik BERT modelį, bet ir XLNet bei RoBERTa, nes ALBERT gali būti mokomas tas pats didesnis duomenų rinkinys, naudojamas dviems naujesniems modeliams, o mažesnis parametrus. Iš esmės ALBERT dirba tik su savo funkcijoms reikalingais parametrais, o tai padidino našumą ir tikslumą. „Google“ paaiškino, kad ji nustatė, kad ALBERT viršijo BERT pagal 12 NLP etalonų, įskaitant į SAT panašų skaitymo supratimo etaloną.

Nors ir nepaminėtas vardu, GPT įtrauktas į ALBERT atvaizdą Google tyrimų tinklaraštyje.

„Google“ išleido ALBERT kaip atvirojo kodo 2020 m. sausio mėn., ir jis buvo įdiegtas „Google“ TensorFlow. Kodas pasiekiamas GitHub.

„Google“ T5

T5 (Teksto į tekstą perdavimo transformatorius) yra NLP modelis pristatė Google 2019 m., kuris skolinasi iš daugybės ankstesnių modelių, įskaitant GPT, BERT, XLNet, RoBERTa ir ALBERT. Tai prideda a naujas ir unikalus duomenų rinkinys vadinamas Colossal Clean Crawled Corpus (C4), kuris leidžia transformatoriui gaminti aukštesnę kokybę ir kontekstiniai rezultatai, palyginti su kitais duomenų rinkiniais, palyginti su naudojamais Common Crawl žiniatinklio įbrėžimais XLNetas.
Išankstinis „Google T5“ teksto į tekstą perkėlimo transformatoriaus mokymas.
T5 išankstinis mokymas paskatino sukurti pokalbių robotų programas, įskaitant InferKit Talk To Transformer ir AI požemis žaidimas. Teksto generatoriai primena ChatGPT, nes leidžia generuoti realistiškus pokalbius pagal tai, ką AI generuoja po pirminių raginimų ar užklausų.
T5 kodas yra prieinamas GitHub.

CTRL per „Salesforce“.

„Salesforce“ („Computational Trust and Reasoning Layer“) CTRL buvo vienas didžiausių viešai išleistų kalbų modelių, kai jis buvo paskelbta 2019 m. rugsėjį „Salesforce“. 1,6 milijardo parametrų kalbos modelis gali būti naudojamas vienu metu analizuoti didelius teksto elementus, pvz., susijusius su tinklalapiais. Kai kurie galimi praktiniai panaudojimai apima susiejimą su apžvalgomis, įvertinimais ir priskyrimais.
Salesforce CTRL šaltinio priskyrimo pavyzdys.
CTRL kalbos modelis gali atskirti konkrečios užklausos tikslą iki skyrybos ženklų. Salesforce pažymėjo modelis gali suprasti skirtumą tarp „Visuotinis atšilimas yra melas“. kaip nepopuliari nuomonė ir „Visuotinis atšilimas yra a melas“ kaip sąmokslo teoriją dėl skirtingų frazių laikotarpių ir sukurkite atitinkamas Reddit gijas kiekviena.
CTRL nuorodos iki 140 GB duomenų, skirtų išankstiniam mokymui iš šaltinių, įskaitant „Wikipedia“, „Project Gutenberg“, „Amazon“ apžvalgas ir „Reddit“. Jame taip pat nurodoma daugybė tarptautinių naujienų, informacijos ir smulkmenų šaltinių.
CTRL kodas pasiekiamas GitHub.

„GShard“ iš „Google“.

GShard yra a milžiniškas kalbos vertimo modelis kad „Google“ pristatė 2020 m. birželio mėn. neuroninio tinklo mastelio keitimo tikslais. Modelis apima 600 milijardų parametrų, o tai leidžia vienu metu lavinti didelius duomenų rinkinius. GShardas yra ypač įgudęs kalbos vertimas ir mokomas išversti į anglų kalbą 100 kalbų per keturias dienas.

„Facebook“ AI tyrimų „Blender“.

„Blender“ yra atvirojo kodo pokalbių robotas, kuris buvo pristatytas 2020 m. balandžio mėn „Facebook AI Research“. Pastebėta, kad pokalbių robotas pagerino pokalbio įgūdžius, palyginti su konkurentų modeliais, ir sugebėjo teikti paslaugas įtraukiančius pokalbius, išklausykite ir parodykite, kad suprantate savo partnerio indėlį, taip pat demonstruokite empatiją ir asmenybę.

Blender chatbot pavyzdys.

Blender buvo lyginamas su Google Meena pokalbių robotu, kuris savo ruožtu buvo lyginamas su OpenAI GPT-2

Blender kodas pasiekiamas Parl.ai.

„Pegasus“ iš „Google“.

Pegasus yra natūralus kalbos apdorojimo modelis, kuris buvo pristatė Google 2019 metų gruodžio mėnesį. „Pegasus“ gali būti išmokytas kurti santraukas ir, panašiai kaip ir kiti modeliai, tokie kaip BERT, GPT-2, RoBERTa, XLNet, ALBERT ir T5, jį galima tiksliai pritaikyti konkrečioms užduotims. „Pegasus“ buvo išbandytas dėl jo efektyvumo apibendrinant naujienas, mokslą, istorijas, instrukcijas, el. laiškus, patentus ir įstatymų projektus, palyginti su žmonėmis.

Apibendrinant kokybę, PEGASUS NLP buvo lyginamas su žmogumi.

Pegasus kodas yra prieinamas GitHub.

Redaktorių rekomendacijos

  • „Google Bard“ dabar gali kalbėti, bet ar gali užgožti „ChatGPT“?
  • ChatGPT: naujausios naujienos, ginčai ir patarimai, kuriuos turite žinoti
  • ChatGPT svetainės srautas sumažėjo pirmą kartą
  • „ChatGPT“ „Bing“ naršymo funkcija išjungta dėl prieigos prie mokamos sienos trūkumo
  • Geriausi AI pokalbių robotai, kuriuos galite išbandyti: „ChatGPT“, „Bard“ ir kt