ChatGPT har raskt blitt kjæresten til generativ AI, men det er neppe den eneste spilleren i spillet. I tillegg til alle de andre AI-verktøyene der ute som gjør ting som bildegenerering, det er også en rekke direkte konkurrenter med ChatGPT - eller det antok jeg.
Innhold
- Bing fra Microsoft
- BERT av Google
- Meena fra Google
- ROBERTA av Facebook
- XLNet fra Google
- DialoGPT av Microsoft Research
- ALBERT av Google
- T5 fra Google
- CTRL av Salesforce
- GShard fra Google
- Blender av Facebook AI Research
- Pegasus fra Google
Hvorfor ikke spørre ChatGPT om det? Det var akkurat det jeg gjorde for å få denne listen, i håp om å finne noen alternativer for dem står overfor «at kapasitet»-varsel, eller andre som bare vil prøve noe nytt. Ikke alle disse er like tilgjengelige for publikum som ChatGPT, men ifølge ChatGPT er dette de beste alternativene.
Anbefalte videoer
Bing fra Microsoft
Før du går inn i valgene som er oppført av AI, er det beste alternativet til ChatGPT, vel, ChatGPT. Microsoft nylig la til AI i sin Bing-søkemotor, og den planlegger å rulle ut funksjonen til Edge-nettleseren snart.
I slekt
- ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover
- ChatGPTs rekordvekst ble nettopp detronisert av en ny viral app
- OpenAI bygger et nytt team for å stoppe superintelligent AI fra å bli useriøs
Den er bare i forhåndsvisning, men du kan fortsatt prøve den nye AI-chatboten på bing.com/new akkurat nå. Microsoft sier at det begrenser antallet spørringer i utgangspunktet, men du kan bli med på Bing ChatGPT-ventelisten for å bli varslet når fullversjonen er tilgjengelig.
BERT av Google
BERT (Bidirectional Encoder Representations from Transformers) er en maskinlæringsmodell utviklet av Google. Mange av ChatGPTs resultater nevnte prosjekter fra Google, som du vil se senere på denne listen.
BERT er kjent for sine evner til naturlig språkbehandling (NLP), som svar på spørsmål og sentimentanalyse. Den bruker BookCorpus og engelsk Wikipedia som sine modeller for forhåndsopplæringsreferanser, etter å ha lært henholdsvis 800 millioner og 2,5 milliarder ord.
BERT ble først annonsert som en forskningsprosjekt med åpen kildekode og akademisk oppgave i oktober 2018. Teknologien har siden blitt implementert i Google Søk. Tidlig litteratur om BERT sammenligne det med OpenAIs ChatGPT i november 2018, og bemerker at Googles teknologi er dypt toveis, noe som hjelper med å forutsi innkommende tekst. I mellomtiden er OpenAI GPT ensrettet og kan bare svare på komplekse spørsmål.
Meena fra Google
Meena er en chatbot som Google introduserte i januar 2020 med evnen til å snakke på en menneskelignende måte. Eksempler på funksjonene inkluderer enkle samtaler som inkluderer interessante vitser og ordspill, slik som Meena foreslår at kyr studerer "Bovine sciences" ved Harvard.
Som et direkte alternativ til OpenAIs GPT-2, hadde Meena muligheten til å behandle 8,5 ganger så mye data som konkurrenten på den tiden. Dens nevrale nettverk består av 2,6 parametere, og den er trent på offentlige sosiale medier-samtaler. Meena fikk også en metrisk poengsum i Sensibleness and Specificity Average (SSA) på 79 %, noe som gjør den til en av de mest intelligente chatbotene i sin tid.
Meena-koden er tilgjengelig på GitHub.
ROBERTA av Facebook
ROBERTA (Robustly Optimized BERT Pretraining Approach) er en annen avansert versjon av den originale BERT, som Facebook annonserte i juli 2019.
Facebook opprettet denne NLP-modellen med en større datakilde som foropplæringsmodell. RobERTa bruker CommonCrawl (CC-News), som inkluderer 63 millioner engelske nyhetsartikler generert mellom september 2016 og februar 2019, som sitt 76 GB datasett. Til sammenligning bruker den originale BERT 16 GB data mellom sine engelske Wikipedia- og BookCorpus-datasett, ifølge Facebook.
På samme måte som XLNet, slo RobERTa BERT i et sett med referansedatasett, i henhold til Facebooks forskning. For å få disse resultatene brukte selskapet ikke bare en større datakilde, men fortrente også sin modell for en lengre tid.
Facebook laget ROBERTA åpen kilde i september 2019, og koden er tilgjengelig på GitHub for fellesskapseksperimentering.
VentureBeat nevnte også GPT-2 blant de nye AI-systemene i løpet av den tiden.
XLNet fra Google
XLNET er en transformatorbasert autoregressiv språkmodell utviklet av et team av Google Brain og Carnegie Mellon University-forskere. Modellen er egentlig en mer avansert BERT og ble først vist frem i juni 2019. Gruppen fant XLNet å være minst 16 % mer effektiv enn den originale BERT, som ble annonsert i 2018, med den i stand til å slå BERT i en test av 20 NLP-oppgaver.
XLNet: en ny fortreningsmetode for NLP som forbedrer BERT betydelig på 20 oppgaver (f.eks. SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (kode + forhåndstrente modeller): https://t.co/kI4jsVzT1u
med Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20. juni 2019
Med både XLNet og BERT som bruker "maskerte" tokens for å forutsi skjult tekst, forbedrer XLNet effektiviteten ved å fremskynde den prediktive delen av prosessen. For eksempel Amazon Alexa dataforsker Aishwarya Srinivasan forklart at XLNet er i stand til å identifisere ordet "Ny" som assosiert med begrepet "er en by" før det forutsier begrepet "York" som også assosiert med det begrepet. I mellomtiden må BERT identifisere ordene "New" og "York" separat og deretter assosiere dem med begrepet "er en by", for eksempel.
Spesielt er GPT og GPT-2 også nevnt i denne forklaringen fra 2019 som andre eksempler på autoregressive språkmodeller.
XLNet-kode og forhåndstrente modeller er tilgjengelig på GitHub. Modellen er velkjent blant NLP-forskningsmiljøet.
DialoGPT av Microsoft Research
DialoGPT (Dialog Generative Pre-trained Transformer) er en autoregressiv språkmodell som Ble introdusert i november 2019 av Microsoft Research. Med likheter med GPT-2, ble modellen fortrent til å generere menneskelignende samtaler. Dens primære informasjonskilde var imidlertid 147 millioner flersvingsdialoger skrapet fra Reddit-tråder.
HumanFirst sjefevangelist Cobus Greyling har bemerket suksessen hans med å implementere DialoGPT i Telegram-meldingstjenesten for å bringe modellen til live som en chatbot. Han la til at bruk av Amazon Web Services og Amazon SageMaker kan hjelpe med å finjustere koden.
DialoGPT-koden er tilgjengelig på GitHub.
ALBERT av Google
ALBERT (A Lite BERT) er en avkortet versjon av den originale BERT og ble utviklet av Google i desember 2019.
Med ALBERT begrenset Google antallet parametere som er tillatt i modellen ved å introdusere parametere med «skjulte lag-innbygginger».
Dette forbedret seg ikke bare på BERT-modellen, men også på XLNet og RoBERTa fordi ALBERT kan trenes på det samme større datasettet med informasjon som brukes for de to nyere modellene mens de holder seg til mindre parametere. I hovedsak fungerer ALBERT bare med parametrene som er nødvendige for funksjonene, noe som økte ytelsen og nøyaktigheten. Google detaljert at det fant ALBERT å overgå BERT på 12 NLP-referanser, inkludert en SAT-lignende leseforståelsesbenchmark.
Selv om det ikke er nevnt ved navn, er GPT inkludert i bildebehandlingen for ALBERT på Googles forskningsblogg.
Google ga ut ALBERT som åpen kildekode i januar 2020, og den ble implementert på toppen av Googles TensorFlow. Koden er tilgjengelig på GitHub.
T5 fra Google
CTRL av Salesforce
GShard fra Google
GShard er en gigantisk språkoversettelsesmodell at Google introduserte i juni 2020 med det formål å skalere nevrale nettverk. Modellen inkluderer 600 milliarder parametere, som gir mulighet for store sett med datatrening på en gang. GShard er spesielt dyktig på språkoversettelse og blir opplært til å oversette 100 språk til engelsk på fire dager.
Blender av Facebook AI Research
Blender er en åpen kildekode chatbot som ble introdusert i april 2020 av Facebook AI Research. Chatboten har blitt bemerket å ha forbedrede samtaleferdigheter i forhold til konkurrentmodeller, med evnen til å gi engasjerende samtaleemner, lytt og vis forståelse for partnerens innspill, og vis empati og personlighet.
Blender har blitt sammenlignet med Googles Meena chatbot, som igjen har blitt sammenlignet med OpenAIs GPT-2
Blenderkoden er tilgjengelig på Parl.ai.
Pegasus fra Google
Pegasus er en naturlig språkbehandlingsmodell som var introdusert av Google i desember 2019. Pegasus kan trenes til å lage sammendrag, og i likhet med andre modeller som BERT, GPT-2, RoBERTa, XLNet, ALBERT og T5, kan den finjusteres til spesifikke oppgaver. Pegasus har blitt testet på effektiviteten i å oppsummere nyheter, vitenskap, historier, instruksjoner, e-poster, patenter og lovforslag sammenlignet med menneskelige emner.
Pegasus-koden er tilgjengelig på GitHub.
Redaktørenes anbefalinger
- Google Bard kan nå snakke, men kan det overdøve ChatGPT?
- ChatGPT: de siste nyhetene, kontroversene og tipsene du trenger å vite
- ChatGPT-nettstedstrafikken har falt for første gang
- ChatGPTs Bing-surfingsfunksjon er deaktivert på grunn av tilgangsfeil i betalingsmuren
- De beste AI-chatbotene å prøve ut: ChatGPT, Bard og mer