De bedste ChatGPT-alternativer (ifølge ChatGPT)

ChatGPT er hurtigt blevet generativ AIs darling, men det er næppe den eneste spiller i spillet. I tillæg til alle de andre AI-værktøjer derude der laver ting som billedgenerering, er der også en række direkte konkurrenter med ChatGPT - eller det gik jeg ud fra.

Indhold

  • Bing fra Microsoft
  • BERT fra Google
  • Meena fra Google
  • ROBERTA fra Facebook
  • XLNet fra Google
  • DialoGPT af Microsoft Research
  • ALBERT fra Google
  • T5 fra Google
  • CTRL fra Salesforce
  • GShard fra Google
  • Blender fra Facebook AI Research
  • Pegasus fra Google

Hvorfor ikke spørge ChatGPT om det? Det er præcis, hvad jeg gjorde for at få denne liste, i håb om at finde nogle muligheder for dem står over for "at kapacitet"-meddelelser, eller andre, der bare vil prøve noget nyt. Ikke alle af disse er lige så tilgængelige for offentligheden som ChatGPT, men ifølge ChatGPT er disse de bedste alternativer.

Anbefalede videoer

Bing fra Microsoft

Microsofts nydesignede Bing-søgemaskine.

Før du går ind i de valg, der er angivet af AI, er det bedste alternativ til ChatGPT, ja, ChatGPT. Microsoft for nylig

tilføjede AI til sin Bing-søgemaskine, og den planlægger snart at udrulle funktionen til Edge-browseren.

Relaterede

  • ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove
  • ChatGPTs rekordvækst blev netop detroniseret af en ny viral app
  • OpenAI bygger nyt hold for at forhindre, at superintelligent kunstig intelligens bliver useriøs

Den er kun i preview, men du kan stadig prøve den nye AI chatbot på bing.com/new lige nu. Microsoft siger, at det begrænser antallet af forespørgsler i første omgang, men du kan tilmeld dig Bing ChatGPT-ventelisten for at få besked, når den fulde version er tilgængelig.

BERT fra Google

BERT (Bidirectional Encoder Representations from Transformers) er en maskinlæringsmodel udviklet af Google. Masser af ChatGPTs resultater nævnte projekter af Google, som du vil se senere på denne liste.

BERT er kendt for sine naturlige sprogbehandlingsevner (NLP), såsom besvarelse af spørgsmål og sentimentanalyse. Den bruger BookCorpus og engelsk Wikipedia som sine modeller til fortræning af referencer, efter at have lært henholdsvis 800 millioner og 2,5 milliarder ord.

BERT blev først annonceret som en open source forskningsprojekt og akademisk papir i oktober 2018. Teknologien er siden blevet implementeret i Google Søgning. Tidlig litteratur om BERT sammenligne det med OpenAIs ChatGPT i november 2018, og bemærker, at Googles teknologi er dyb tovejsbestemt, hvilket hjælper med at forudsige indgående tekst. I mellemtiden er OpenAI GPT ensrettet og kan kun svare på komplekse forespørgsler.

Meena fra Google

Meena er en chatbot, der Google introducerede i januar 2020 med evnen til at tale på en menneskelignende måde. Eksempler på dets funktioner omfatter simple samtaler, der inkluderer interessante vittigheder og ordspil, såsom Meena, der foreslår, at køer studerer "Bovine sciences" på Harvard.

Google Meena chatbot-eksempel.

Som et direkte alternativ til OpenAIs GPT-2 havde Meena evnen til at behandle 8,5 gange så meget data som sin konkurrent på det tidspunkt. Dets neurale netværk består af 2,6 parametre, og det er trænet i samtaler på det offentlige domæne på sociale medier. Meena modtog også en metrisk score i Sensibleness and Specificity Average (SSA) på 79%, hvilket gør den til en af ​​sin tids mest intelligente chatbots.

Meena-koden er tilgængelig på GitHub.

ROBERTA fra Facebook

ROBERTA (Robustly Optimized BERT Pretraining Approach) er en anden avanceret version af den originale BERT, som Facebook meddelte i juli 2019.

Facebook skabte denne NLP-model med en større datakilde som fortræningsmodel. RobERTa bruger CommonCrawl (CC-News), som inkluderer 63 millioner engelske nyhedsartikler genereret mellem september 2016 og februar 2019, som sit 76 GB datasæt. Til sammenligning bruger den originale BERT 16 GB data mellem dets engelske Wikipedia og BookCorpus datasæt, ifølge Facebook.

På samme måde som XLNet slog RobERTa BERT i et sæt benchmarkdatasæt ifølge Facebooks undersøgelse. For at få disse resultater brugte virksomheden ikke kun en større datakilde, men fortrænede også sin model til en længere tid.

Facebook lavede ROBERTA open source i september 2019, og dens kode er tilgængelig på GitHub til samfundseksperimenter.

VentureBeat nævnte også GPT-2 blandt de nye AI-systemer i den periode.

XLNet fra Google

XLNET er en transformer-baseret autoregressiv sprogmodel udviklet af et team af Google Brain og Carnegie Mellon University forskere. Modellen er i det væsentlige en mere avanceret BERT og blev først vist frem i juni 2019. Gruppen fandt, at XLNet var mindst 16 % mere effektiv end den oprindelige BERT, som blev annonceret i 2018, med den i stand til at slå BERT i en test af 20 NLP-opgaver.

XLNet: en ny fortræningsmetode til NLP, der væsentligt forbedrer BERT på 20 opgaver (f.eks. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (kode + fortrænede modeller): https://t.co/kI4jsVzT1u

med Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20. juni 2019

Med både XLNet og BERT, der bruger "maskerede" tokens til at forudsige skjult tekst, forbedrer XLNet effektiviteten ved at fremskynde den forudsigelige del af processen. For eksempel Amazon Alexa dataforsker Aishwarya Srinivasan forklaret at XLNet er i stand til at identificere ordet "Ny" som værende forbundet med udtrykket "er en by", før det forudsiger udtrykket "York" som også forbundet med det udtryk. I mellemtiden skal BERT identificere ordene "New" og "York" separat og derefter forbinde dem med udtrykket "er en by", for eksempel.

Det er især GPT og GPT-2 også nævnt i denne forklaring fra 2019 som andre eksempler på autoregressive sprogmodeller.

XLNet-kode og fortrænede modeller er tilgængelig på GitHub. Modellen er velkendt blandt NLP-forskningsmiljøet.

DialoGPT af Microsoft Research

DialoGPT (Dialog Generative Pre-trained Transformer) er en autoregressiv sprogmodel, der Blev introduceret i november 2019 af Microsoft Research. Med ligheder med GPT-2 blev modellen fortrænet til at generere menneskelignende samtale. Dens primære kilde til information var dog 147 millioner multi-turn dialoger skrabet fra Reddit-tråde.

DiabloGPT multi-turn generation eksempler.

HumanFirst chefevangelist Cobus Greyling har bemærket hans succes med at implementere DialoGPT i Telegram-meddelelsestjenesten for at bringe modellen ud i livet som en chatbot. Han tilføjede, at brug af Amazon Web Services og Amazon SageMaker kan hjælpe med at finjustere koden.

DialoGPT-koden er tilgængelig på GitHub.

ALBERT fra Google

ALBERT (A Lite BERT) er en afkortet version af den originale BERT og blev udviklet af Google i december 2019.

Med ALBERT begrænsede Google antallet af tilladte parametre i modellen ved at introducere parametre med "skjulte lag-indlejringer".

Maskinpræstation på RACE-udfordringen (SAT-lignende læseforståelse) fra Google

Dette forbedredes ikke kun på BERT-modellen, men også på XLNet og RoBERTa, fordi ALBERT kan trænes på det samme større datasæt af information, der bruges til de to nyere modeller, mens de overholder mindre parametre. I det væsentlige arbejder ALBERT kun med de parametre, der er nødvendige for dets funktioner, hvilket øgede ydeevnen og nøjagtigheden. Google oplyste, at det fandt, at ALBERT oversteg BERT på 12 NLP-benchmarks, inklusive et SAT-lignende benchmark for læseforståelse.

Selvom det ikke er nævnt ved navn, er GPT inkluderet i billedbehandlingen for ALBERT på Googles Research-blog.

Google frigav ALBERT som open source i januar 2020, og den blev implementeret oven på Googles TensorFlow. Koden er tilgængelig på GitHub.

T5 fra Google

T5 (Text-to-Text Transfer Transformer) er en NLP-model introduceret af Google i 2019, der låner fra et væld af tidligere modeller, inklusive GPT, BERT, XLNet, RobERTa og ALBERT, blandt andre. Det tilføjer en nyt og unikt datasæt kaldet Colossal Clean Crawled Corpus (C4), som gør det muligt for transformeren at producere højere kvalitet og kontekstuelle resultater end andre datasæt i sammenligning med de Common Crawl-webskraber, der bruges til XLNet.
Google T5 Text-To-Text Transfer Transformer fortræning.
T5-fortræningen førte til oprettelsen af ​​chatbot-applikationer, herunder InferKit Talk To Transformer og AI Dungeon spil. Tekstgeneratorerne ligner ChatGPT ved, at de giver dig mulighed for at generere realistiske samtaler baseret på, hvad AI genererer efter dine første prompter eller forespørgsler.
T5-koden er tilgængelig på GitHub.

CTRL fra Salesforce

CTRL af Salesforce (Computational Trust and Reasoning Layer) var en af ​​de største offentligt udgivne sprogmodeller, da den blev annonceret i september 2019 af Salesforce. Sprogmodellen med 1,6 milliarder parametre kan bruges til at analysere store tekster på én gang, såsom dem, der er forbundet med websider. Nogle potentielle praktiske anvendelser omfatter parring med anmeldelser, vurderinger og tilskrivninger.
Salesforce CTRL-kildetilskrivningseksempel.
CTRL-sprogmodellen kan differentiere hensigten med en specifik forespørgsel ned til tegnsætningen. Salesforce bemærkede modellen kan opfatte forskellen mellem "Global opvarmning er en løgn." som en upopulær mening og “Global opvarmning er en løgn" som en konspirationsteori på grund af forskellen i perioden i sætningerne og udarbejde tilsvarende Reddit-tråde for hver.
CTRL referencer op til 140 GB data til fortræning fra kilder, herunder Wikipedia, Project Gutenberg, Amazon anmeldelser og Reddit. Den henviser også til en række internationale nyheds-, informations- og triviaressourcer.
CTRL-koden er tilgængelig på GitHub.

GShard fra Google

GShard er en kæmpe sprogoversættelsesmodel at Google introducerede i juni 2020 med henblik på skalering af neurale netværk. Modellen omfatter 600 milliarder parametre, hvilket giver mulighed for store sæt datatræning på én gang. GShard er særligt dygtig til sprogoversættelse og bliver trænet til at oversætte 100 sprog til engelsk på fire dage.

Blender fra Facebook AI Research

Blender er en open source chatbot, der blev introduceret i april 2020 af Facebook AI Research. Chatbotten er blevet bemærket for at have forbedrede samtaleevner i forhold til konkurrerende modeller, med evnen til at give engagere snakkepunkter, lytte og vise forståelse for partnerens input og vise empati og personlighed.

Blender chatbot eksempel.

Blender er blevet sammenlignet med Googles Meena chatbot, som igen er blevet sammenlignet med OpenAIs GPT-2

Blenderkoden er tilgængelig på Parl.ai.

Pegasus fra Google

Pegasus er en naturlig sprogbehandlingsmodel, der var introduceret af Google i december 2019. Pegasus kan trænes til at lave oversigter, og i lighed med andre modeller som BERT, GPT-2, RoBERTa, XLNet, ALBERT og T5 kan den finjusteres til specifikke opgaver. Pegasus er blevet testet på dets effektivitet i at opsummere nyheder, videnskab, historier, instruktioner, e-mails, patenter og lovforslag i sammenligning med menneskelige emner.

PEGASUS NLP er blevet sammenlignet med et menneske med hensyn til opsummerende kvalitet.

Pegasus-koden er tilgængelig på GitHub.

Redaktørens anbefalinger

  • Google Bard kan nu tale, men kan den overdøve ChatGPT?
  • ChatGPT: de seneste nyheder, kontroverser og tips, du har brug for at vide
  • ChatGPT-webstedets trafik er faldet for første gang
  • ChatGPTs Bing-browsing-funktion deaktiveret på grund af adgangsfejl i betalingsvæggen
  • De bedste AI-chatbots at prøve: ChatGPT, Bard og mere