De beste ChatGPT-alternativene (i henhold til ChatGPT)

ChatGPT har raskt blitt kjæresten til generativ AI, men det er neppe den eneste spilleren i spillet. I tillegg til alle de andre AI-verktøyene der ute som gjør ting som bildegenerering, det er også en rekke direkte konkurrenter med ChatGPT - eller det antok jeg.

Innhold

  • Bing fra Microsoft
  • BERT av Google
  • Meena fra Google
  • ROBERTA av Facebook
  • XLNet fra Google
  • DialoGPT av Microsoft Research
  • ALBERT av Google
  • T5 fra Google
  • CTRL av Salesforce
  • GShard fra Google
  • Blender av Facebook AI Research
  • Pegasus fra Google

Hvorfor ikke spørre ChatGPT om det? Det var akkurat det jeg gjorde for å få denne listen, i håp om å finne noen alternativer for dem står overfor «at kapasitet»-varsel, eller andre som bare vil prøve noe nytt. Ikke alle disse er like tilgjengelige for publikum som ChatGPT, men ifølge ChatGPT er dette de beste alternativene.

Anbefalte videoer

Bing fra Microsoft

Microsofts redesignede Bing-søkemotor.

Før du går inn i valgene som er oppført av AI, er det beste alternativet til ChatGPT, vel, ChatGPT. Microsoft nylig la til AI i sin Bing-søkemotor, og den planlegger å rulle ut funksjonen til Edge-nettleseren snart.

I slekt

  • ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover
  • ChatGPTs rekordvekst ble nettopp detronisert av en ny viral app
  • OpenAI bygger et nytt team for å stoppe superintelligent AI fra å bli useriøs

Den er bare i forhåndsvisning, men du kan fortsatt prøve den nye AI-chatboten på bing.com/new akkurat nå. Microsoft sier at det begrenser antallet spørringer i utgangspunktet, men du kan bli med på Bing ChatGPT-ventelisten for å bli varslet når fullversjonen er tilgjengelig.

BERT av Google

BERT (Bidirectional Encoder Representations from Transformers) er en maskinlæringsmodell utviklet av Google. Mange av ChatGPTs resultater nevnte prosjekter fra Google, som du vil se senere på denne listen.

BERT er kjent for sine evner til naturlig språkbehandling (NLP), som svar på spørsmål og sentimentanalyse. Den bruker BookCorpus og engelsk Wikipedia som sine modeller for forhåndsopplæringsreferanser, etter å ha lært henholdsvis 800 millioner og 2,5 milliarder ord.

BERT ble først annonsert som en forskningsprosjekt med åpen kildekode og akademisk oppgave i oktober 2018. Teknologien har siden blitt implementert i Google Søk. Tidlig litteratur om BERT sammenligne det med OpenAIs ChatGPT i november 2018, og bemerker at Googles teknologi er dypt toveis, noe som hjelper med å forutsi innkommende tekst. I mellomtiden er OpenAI GPT ensrettet og kan bare svare på komplekse spørsmål.

Meena fra Google

Meena er en chatbot som Google introduserte i januar 2020 med evnen til å snakke på en menneskelignende måte. Eksempler på funksjonene inkluderer enkle samtaler som inkluderer interessante vitser og ordspill, slik som Meena foreslår at kyr studerer "Bovine sciences" ved Harvard.

Eksempel på Google Meena chatbot.

Som et direkte alternativ til OpenAIs GPT-2, hadde Meena muligheten til å behandle 8,5 ganger så mye data som konkurrenten på den tiden. Dens nevrale nettverk består av 2,6 parametere, og den er trent på offentlige sosiale medier-samtaler. Meena fikk også en metrisk poengsum i Sensibleness and Specificity Average (SSA) på 79 %, noe som gjør den til en av de mest intelligente chatbotene i sin tid.

Meena-koden er tilgjengelig på GitHub.

ROBERTA av Facebook

ROBERTA (Robustly Optimized BERT Pretraining Approach) er en annen avansert versjon av den originale BERT, som Facebook annonserte i juli 2019.

Facebook opprettet denne NLP-modellen med en større datakilde som foropplæringsmodell. RobERTa bruker CommonCrawl (CC-News), som inkluderer 63 millioner engelske nyhetsartikler generert mellom september 2016 og februar 2019, som sitt 76 GB datasett. Til sammenligning bruker den originale BERT 16 GB data mellom sine engelske Wikipedia- og BookCorpus-datasett, ifølge Facebook.

På samme måte som XLNet, slo RobERTa BERT i et sett med referansedatasett, i henhold til Facebooks forskning. For å få disse resultatene brukte selskapet ikke bare en større datakilde, men fortrente også sin modell for en lengre tid.

Facebook laget ROBERTA åpen kilde i september 2019, og koden er tilgjengelig på GitHub for fellesskapseksperimentering.

VentureBeat nevnte også GPT-2 blant de nye AI-systemene i løpet av den tiden.

XLNet fra Google

XLNET er en transformatorbasert autoregressiv språkmodell utviklet av et team av Google Brain og Carnegie Mellon University-forskere. Modellen er egentlig en mer avansert BERT og ble først vist frem i juni 2019. Gruppen fant XLNet å være minst 16 % mer effektiv enn den originale BERT, som ble annonsert i 2018, med den i stand til å slå BERT i en test av 20 NLP-oppgaver.

XLNet: en ny fortreningsmetode for NLP som forbedrer BERT betydelig på 20 oppgaver (f.eks. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (kode + forhåndstrente modeller): https://t.co/kI4jsVzT1u

med Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20. juni 2019

Med både XLNet og BERT som bruker "maskerte" tokens for å forutsi skjult tekst, forbedrer XLNet effektiviteten ved å fremskynde den prediktive delen av prosessen. For eksempel Amazon Alexa dataforsker Aishwarya Srinivasan forklart at XLNet er i stand til å identifisere ordet "Ny" som assosiert med begrepet "er en by" før det forutsier begrepet "York" som også assosiert med det begrepet. I mellomtiden må BERT identifisere ordene "New" og "York" separat og deretter assosiere dem med begrepet "er en by", for eksempel.

Spesielt er GPT og GPT-2 også nevnt i denne forklaringen fra 2019 som andre eksempler på autoregressive språkmodeller.

XLNet-kode og forhåndstrente modeller er tilgjengelig på GitHub. Modellen er velkjent blant NLP-forskningsmiljøet.

DialoGPT av Microsoft Research

DialoGPT (Dialog Generative Pre-trained Transformer) er en autoregressiv språkmodell som Ble introdusert i november 2019 av Microsoft Research. Med likheter med GPT-2, ble modellen fortrent til å generere menneskelignende samtaler. Dens primære informasjonskilde var imidlertid 147 millioner flersvingsdialoger skrapet fra Reddit-tråder.

DiabloGPT multi-turn generasjons eksempler.

HumanFirst sjefevangelist Cobus Greyling har bemerket suksessen hans med å implementere DialoGPT i Telegram-meldingstjenesten for å bringe modellen til live som en chatbot. Han la til at bruk av Amazon Web Services og Amazon SageMaker kan hjelpe med å finjustere koden.

DialoGPT-koden er tilgjengelig på GitHub.

ALBERT av Google

ALBERT (A Lite BERT) er en avkortet versjon av den originale BERT og ble utviklet av Google i desember 2019.

Med ALBERT begrenset Google antallet parametere som er tillatt i modellen ved å introdusere parametere med «skjulte lag-innbygginger».

Maskinytelse på RACE-utfordringen (SAT-lignende leseforståelse) fra Google

Dette forbedret seg ikke bare på BERT-modellen, men også på XLNet og RoBERTa fordi ALBERT kan trenes på det samme større datasettet med informasjon som brukes for de to nyere modellene mens de holder seg til mindre parametere. I hovedsak fungerer ALBERT bare med parametrene som er nødvendige for funksjonene, noe som økte ytelsen og nøyaktigheten. Google detaljert at det fant ALBERT å overgå BERT på 12 NLP-referanser, inkludert en SAT-lignende leseforståelsesbenchmark.

Selv om det ikke er nevnt ved navn, er GPT inkludert i bildebehandlingen for ALBERT på Googles forskningsblogg.

Google ga ut ALBERT som åpen kildekode i januar 2020, og den ble implementert på toppen av Googles TensorFlow. Koden er tilgjengelig på GitHub.

T5 fra Google

T5 (Text-to-Text Transfer Transformer) er en NLP-modell introdusert av Google i 2019 som låner fra en rekke tidligere modeller, inkludert GPT, BERT, XLNet, RoBERTa og ALBERT, blant andre. Det legger til en nytt og unikt datasett kalt Colossal Clean Crawled Corpus (C4), som lar transformatoren produsere høyere kvalitet og kontekstuelle resultater enn andre datasett sammenlignet med Common Crawl-nettskrapene som brukes til XLNet.
Google T5 Text-To-Text Transfer Transformer føropplæring.
T5-foropplæringen førte til opprettelsen av chatbot-applikasjoner, inkludert InferKit Talk To Transformer og AI Dungeon spill. Tekstgeneratorene ligner ChatGPT ved at de lar deg generere realistiske samtaler basert på hva AI genererer etter de første spørsmålene eller forespørslene dine.
T5-koden er tilgjengelig på GitHub.

CTRL av Salesforce

CTRL av Salesforce (Computational Trust and Reasoning Layer) var en av de største offentlig utgitte språkmodellene da den ble annonsert i september 2019 av Salesforce. Språkmodellen med 1,6 milliarder parametere kan brukes til å analysere store tekster på en gang, for eksempel de som er knyttet til nettsider. Noen potensielle praktiske bruksområder inkluderer sammenkobling med anmeldelser, vurderinger og attribusjoner.
Salesforce CTRL-kildeattribusjonseksempel.
CTRL-språkmodellen kan differensiere hensikten med en spesifikk spørring ned til tegnsettingen. Salesforce bemerket modellen kan fange opp forskjellen mellom "Global oppvarming er en løgn." som en upopulær mening og «Global oppvarming er en løgn" som en konspirasjonsteori på grunn av forskjellen i perioden i setningene og utarbeide tilsvarende Reddit-tråder for Hver.
CTRL-referanser opptil 140 GB data for forhåndsopplæring fra kilder, inkludert Wikipedia, Project Gutenberg, Amazon-anmeldelser og Reddit. Den refererer også til en rekke internasjonale nyheter, informasjon og triviaressurser.
CTRL-koden er tilgjengelig på GitHub.

GShard fra Google

GShard er en gigantisk språkoversettelsesmodell at Google introduserte i juni 2020 med det formål å skalere nevrale nettverk. Modellen inkluderer 600 milliarder parametere, som gir mulighet for store sett med datatrening på en gang. GShard er spesielt dyktig på språkoversettelse og blir opplært til å oversette 100 språk til engelsk på fire dager.

Blender av Facebook AI Research

Blender er en åpen kildekode chatbot som ble introdusert i april 2020 av Facebook AI Research. Chatboten har blitt bemerket å ha forbedrede samtaleferdigheter i forhold til konkurrentmodeller, med evnen til å gi engasjerende samtaleemner, lytt og vis forståelse for partnerens innspill, og vis empati og personlighet.

Blender chatbot eksempel.

Blender har blitt sammenlignet med Googles Meena chatbot, som igjen har blitt sammenlignet med OpenAIs GPT-2

Blenderkoden er tilgjengelig på Parl.ai.

Pegasus fra Google

Pegasus er en naturlig språkbehandlingsmodell som var introdusert av Google i desember 2019. Pegasus kan trenes til å lage sammendrag, og i likhet med andre modeller som BERT, GPT-2, RoBERTa, XLNet, ALBERT og T5, kan den finjusteres til spesifikke oppgaver. Pegasus har blitt testet på effektiviteten i å oppsummere nyheter, vitenskap, historier, instruksjoner, e-poster, patenter og lovforslag sammenlignet med menneskelige emner.

PEGASUS NLP har blitt sammenlignet med et menneske når det gjelder oppsummerende kvalitet.

Pegasus-koden er tilgjengelig på GitHub.

Redaktørenes anbefalinger

  • Google Bard kan nå snakke, men kan det overdøve ChatGPT?
  • ChatGPT: de siste nyhetene, kontroversene og tipsene du trenger å vite
  • ChatGPT-nettstedstrafikken har falt for første gang
  • ChatGPTs Bing-surfingsfunksjon er deaktivert på grunn av tilgangsfeil i betalingsmuren
  • De beste AI-chatbotene å prøve ut: ChatGPT, Bard og mer