ChatGPT greitai tapo generatyvaus AI numylėtiniu, tačiau vargu ar tai vienintelis žaidėjas žaidime. Be to visi kiti AI įrankiai kurie atlieka tokius dalykus kaip vaizdo generavimas, taip pat yra keletas tiesioginių „ChatGPT“ konkurentų – ar taip aš maniau.
Turinys
- „Microsoft“ sukurta „Bing“.
- „Google“ BERT
- Meena iš Google
- RoBERTa iš Facebook
- Google XLNet
- „Microsoft Research“ sukurta „DialoGPT“.
- ALBERTAS iš Google
- „Google“ T5
- CTRL per „Salesforce“.
- „GShard“ iš „Google“.
- „Facebook“ AI tyrimų „Blender“.
- „Pegasus“ iš „Google“.
Kodėl apie tai nepaklausus „ChatGPT“? Būtent tai ir padariau, kad gaučiau šį sąrašą, tikėdamasis rasti tam tikrų variantų susiduria su pranešimais „pajėgumas“., arba kiti, kurie tiesiog nori išbandyti ką nors naujo. Ne visi jie yra tokie prieinami visuomenei kaip „ChatGPT“, tačiau, pasak „ChatGPT“, tai yra geriausios alternatyvos.
Rekomenduojami vaizdo įrašai
„Microsoft“ sukurta „Bing“.
Prieš patenkant į AI išvardytus pasirinkimus, geriausia „ChatGPT“ alternatyva yra „ChatGPT“. „Microsoft“ neseniai
pridėjo AI į savo „Bing“ paieškos variklį, ir netrukus planuojama įdiegti šią funkciją į „Edge“ naršyklę.Susijęs
- „ChatGPT“ gamintoja „OpenAI“ susiduria su FTC tyrimu dėl vartotojų apsaugos įstatymų
- Rekordinį ChatGPT augimą ką tik nuvertė nauja virusinė programa
- OpenAI kuria naują komandą, kad sustabdytų superinteligentiškojo AI nesąžiningumą
Tai tik peržiūra, bet vis tiek galite išbandyti naują AI pokalbių robotą adresu bing.com/new dabar. „Microsoft“ teigia, kad iš pradžių riboja užklausų skaičių, bet jūs galite prisijunkite prie „Bing ChatGPT“ laukiančiųjų sąrašo gauti pranešimą, kai bus pasiekiama pilna versija.
„Google“ BERT
BERT (Bidirectional Encoder Representations from Transformers) yra „Google“ sukurtas mašininio mokymosi modelis. Daugelyje „ChatGPT“ rezultatų buvo paminėti „Google“ projektai, kuriuos pamatysite vėliau šiame sąraše.
BERT yra žinomas dėl savo natūralios kalbos apdorojimo (NLP) gebėjimų, tokių kaip atsakymas į klausimus ir nuotaikų analizė. Jis naudoja „BookCorpus“ ir „Wikipedia“ anglų kalba kaip modelius rengdamas nuorodas, išmokęs atitinkamai 800 milijonų ir 2,5 milijardo žodžių.
BERT pirmą kartą buvo paskelbta kaip atvirojo kodo tyrimų projektas ir akademinis darbas 2018 metų spalio mėnesį. Nuo tada ši technologija buvo įdiegta „Google“ paieškoje. Ankstyvoji literatūra apie BERT palyginkite jį su OpenAI ChatGPT 2018 m. lapkričio mėn., pažymėdami, kad „Google“ technologija yra giliai dvikryptė, o tai padeda numatyti gaunamą tekstą. Tuo tarpu OpenAI GPT yra vienakryptis ir gali atsakyti tik į sudėtingas užklausas.
Meena iš Google
Meena yra pokalbių robotas „Google“ pristatė 2020 m. sausio mėn. su galimybe kalbėtis žmogiškai. Jos funkcijų pavyzdžiai apima paprastus pokalbius, kuriuose yra įdomių juokelių ir kalambūrų, pavyzdžiui, Meena siūlo karvėms studijuoti „galvijų mokslus“ Harvarde.
Kaip tiesioginė alternatyva OpenAI GPT-2, Meena turėjo galimybę apdoroti 8,5 karto daugiau duomenų nei jos konkurentė tuo metu. Jo neuroninį tinklą sudaro 2,6 parametrai ir jis yra apmokytas viešosiose socialinės žiniasklaidos pokalbiuose. Meena taip pat gavo 79% jutimo ir specifiškumo vidurkį (SSA), todėl tai yra vienas iš protingiausių savo laiko pokalbių robotų.
Meena kodas yra prieinamas GitHub.
RoBERTa iš Facebook
RoBERTA (Tvirtai optimizuotas BERT išankstinio mokymo metodas) yra dar viena pažangi originalaus BERT versija, kuri „Facebook“ paskelbė 2019 metų liepos mėnesį.
Facebook sukūrė šį NLP modelį su didesniu duomenų šaltiniu kaip išankstinio mokymo modeliu. „RoBERTa“ kaip 76 GB duomenų rinkinį naudoja „CommonCrawl“ (CC-News), kuri apima 63 milijonus anglų kalbos naujienų straipsnių, sukurtų nuo 2016 m. rugsėjo mėn. iki 2019 m. vasario mėn. Palyginimui, pradinis BERT naudoja 16 GB duomenų tarp savo anglų kalbos Wikipedia ir BookCorpus duomenų rinkinių, teigia „Facebook“.
Remiantis „Facebook“ tyrimu, „Silimar“ ir „XLNet“ „RoBERTa“ įveikė BERT palyginimo duomenų rinkiniuose. Kad gautų šiuos rezultatus, bendrovė ne tik naudojo didesnį duomenų šaltinį, bet ir iš anksto parengė savo modelį a ilgesnį laiką.
„Facebook“ sukūrė „RoBERTa“. atviro kodo 2019 m. rugsėjo mėn., o jo kodas yra pasiekiama GitHub bendruomenės eksperimentams.
VentureBeat taip pat paminėjo GPT-2 tarp tuo metu besiformuojančių AI sistemų.
Google XLNet
XLNET yra transformatoriumi pagrįstas autoregresyvios kalbos modelis, kurį sukūrė komanda Google Brain ir Carnegie Mellon universiteto mokslininkai. Modelis iš esmės yra pažangesnis BERT ir pirmą kartą buvo pristatytas 2019 m. birželio mėn. Grupė nustatė, kad XLNet yra bent jau 16% efektyvesnis nei pradinis BERT, apie kurį buvo pranešta 2018 m., galintis įveikti BERT 20 NLP užduočių teste.
XLNet: naujas išankstinio NLP mokymo metodas, kuris žymiai pagerina BERT 20 užduočių (pvz., SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (kodas + iš anksto paruošti modeliai): https://t.co/kI4jsVzT1u
su Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
– Quoc Le (@quocleix) 2019 m. birželio 20 d
Tiek XLNet, tiek BERT naudojant „užmaskuotus“ žetonus paslėptam tekstui numatyti, XLNet pagerina efektyvumą, pagreitindama nuspėjamą proceso dalį. Pavyzdžiui, „Amazon“. Alexa duomenų mokslininkas Aishwarya Srinivasan paaiškino kad XLNet gali identifikuoti žodį „Naujas“ kaip susijusį su terminu „yra miestas“, prieš numatant terminą „Jorkas“ kaip susijusį su tuo terminu. Tuo tarpu BERT turi atskirti žodžius „New“ ir „York“ ir susieti juos, pavyzdžiui, su terminu „yra miestas“.
Pažymėtina, kad tai yra GPT ir GPT-2 taip pat paminėta šiame paaiškinime nuo 2019 m. kaip kiti autoregresyvių kalbos modelių pavyzdžiai.
XLNet kodas ir paruošti modeliai yra pasiekiama GitHub. Šis modelis yra gerai žinomas tarp NLP tyrimų bendruomenės.
„Microsoft Research“ sukurta „DialoGPT“.
DialoGPT (Dialogue Generative Pre-Tained Transformer) yra autoregresyvus kalbos modelis, buvo pristatytas 2019 m. lapkritį atliko „Microsoft Research“. Turėdamas panašumų į GPT-2, modelis buvo iš anksto paruoštas generuoti žmogišką pokalbį. Tačiau pagrindinis jo informacijos šaltinis buvo 147 milijonai kelių posūkių dialogų, nubrauktų iš „Reddit“ gijų.
„HumanFirst“ vyriausiasis evangelistas Cobusas Greylingas pastebėjo jo sėkmė diegiant DialoGPT į „Telegram“ pranešimų siuntimo paslaugą, kad modelis atgytų kaip pokalbių robotas. Jis pridūrė, kad naudojant „Amazon Web Services“ ir „Amazon SageMaker“ gali padėti tiksliai sureguliuoti kodą.
DialoGPT kodas pasiekiamas GitHub.
ALBERTAS iš Google
ALBERTAS (Lite BERT) yra sutrumpinta originalios BERT versija, kurią „Google“ sukūrė 2019 m. gruodžio mėn.
Naudodama ALBERT, „Google“ apribojo modelyje leidžiamų parametrų skaičių, įvesdama parametrus su „paslėptais sluoksnių įterpimais“.
Tai patobulino ne tik BERT modelį, bet ir XLNet bei RoBERTa, nes ALBERT gali būti mokomas tas pats didesnis duomenų rinkinys, naudojamas dviems naujesniems modeliams, o mažesnis parametrus. Iš esmės ALBERT dirba tik su savo funkcijoms reikalingais parametrais, o tai padidino našumą ir tikslumą. „Google“ paaiškino, kad ji nustatė, kad ALBERT viršijo BERT pagal 12 NLP etalonų, įskaitant į SAT panašų skaitymo supratimo etaloną.
Nors ir nepaminėtas vardu, GPT įtrauktas į ALBERT atvaizdą Google tyrimų tinklaraštyje.
„Google“ išleido ALBERT kaip atvirojo kodo 2020 m. sausio mėn., ir jis buvo įdiegtas „Google“ TensorFlow. Kodas pasiekiamas GitHub.
„Google“ T5
CTRL per „Salesforce“.
„GShard“ iš „Google“.
GShard yra a milžiniškas kalbos vertimo modelis kad „Google“ pristatė 2020 m. birželio mėn. neuroninio tinklo mastelio keitimo tikslais. Modelis apima 600 milijardų parametrų, o tai leidžia vienu metu lavinti didelius duomenų rinkinius. GShardas yra ypač įgudęs kalbos vertimas ir mokomas išversti į anglų kalbą 100 kalbų per keturias dienas.
„Facebook“ AI tyrimų „Blender“.
„Blender“ yra atvirojo kodo pokalbių robotas, kuris buvo pristatytas 2020 m. balandžio mėn „Facebook AI Research“. Pastebėta, kad pokalbių robotas pagerino pokalbio įgūdžius, palyginti su konkurentų modeliais, ir sugebėjo teikti paslaugas įtraukiančius pokalbius, išklausykite ir parodykite, kad suprantate savo partnerio indėlį, taip pat demonstruokite empatiją ir asmenybę.
Blender buvo lyginamas su Google Meena pokalbių robotu, kuris savo ruožtu buvo lyginamas su OpenAI GPT-2
Blender kodas pasiekiamas Parl.ai.
„Pegasus“ iš „Google“.
Pegasus yra natūralus kalbos apdorojimo modelis, kuris buvo pristatė Google 2019 metų gruodžio mėnesį. „Pegasus“ gali būti išmokytas kurti santraukas ir, panašiai kaip ir kiti modeliai, tokie kaip BERT, GPT-2, RoBERTa, XLNet, ALBERT ir T5, jį galima tiksliai pritaikyti konkrečioms užduotims. „Pegasus“ buvo išbandytas dėl jo efektyvumo apibendrinant naujienas, mokslą, istorijas, instrukcijas, el. laiškus, patentus ir įstatymų projektus, palyginti su žmonėmis.
Pegasus kodas yra prieinamas GitHub.
Redaktorių rekomendacijos
- „Google Bard“ dabar gali kalbėti, bet ar gali užgožti „ChatGPT“?
- ChatGPT: naujausios naujienos, ginčai ir patarimai, kuriuos turite žinoti
- ChatGPT svetainės srautas sumažėjo pirmą kartą
- „ChatGPT“ „Bing“ naršymo funkcija išjungta dėl prieigos prie mokamos sienos trūkumo
- Geriausi AI pokalbių robotai, kuriuos galite išbandyti: „ChatGPT“, „Bard“ ir kt