De beste ChatGPT-alternatieven (volgens ChatGPT)

ChatGPT is snel de lieveling van generatieve AI geworden, maar het is niet de enige speler in het spel. In aanvulling op alle andere AI-tools die er zijn die dingen doen als het genereren van afbeeldingen, er zijn ook een aantal directe concurrenten met ChatGPT - dat nam ik tenminste aan.

Inhoud

  • Bing van Microsoft
  • BERT door Google
  • Meena door Google
  • RoBERTa door Facebook
  • XLNet van Google
  • DialogGPT door Microsoft Research
  • ALBERT door Google
  • T5 door Google
  • CTRL door Salesforce
  • GShard door Google
  • Blender door Facebook AI Research
  • Pegasus van Google

Waarom vraag je ChatGPT er niet naar? Dat is precies wat ik deed om deze lijst te krijgen, in de hoop daar wat opties voor te vinden geconfronteerd met "op capaciteit" mededelingen, of anderen die gewoon iets nieuws willen proberen. Deze zijn niet allemaal even toegankelijk voor het publiek als ChatGPT, maar volgens ChatGPT zijn dit de beste alternatieven.

Aanbevolen video's

Bing van Microsoft

De opnieuw ontworpen Bing-zoekmachine van Microsoft.

Voordat we ingaan op de keuzes die door de AI worden vermeld, is het beste alternatief voor ChatGPT, nou ja, ChatGPT. Microsoft onlangs

voegde de AI toe aan zijn Bing-zoekmachine, en het is van plan de functie binnenkort uit te rollen naar de Edge-browser.

Verwant

  • ChatGPT-maker OpenAI wordt geconfronteerd met FTC-onderzoek over wetten voor consumentenbescherming
  • De recordgroei van ChatGPT is zojuist onttroond door een nieuwe virale app
  • OpenAI bouwt nieuw team om te voorkomen dat superintelligente AI schurkenstaten wordt

Het is alleen in preview, maar je kunt de nieuwe AI-chatbot nog steeds uitproberen op bing.com/nieuw direct. Microsoft zegt dat het in eerste instantie het aantal zoekopdrachten beperkt, maar dat kan word lid van de Bing ChatGPT-wachtlijst om op de hoogte te worden gehouden wanneer de volledige versie beschikbaar is.

BERT door Google

BERT (Bidirectional Encoder Representations from Transformers) is een machine learning-model ontwikkeld door Google. Veel van de resultaten van ChatGPT noemden projecten van Google, die u verderop in deze lijst zult zien.

BERT staat bekend om zijn vaardigheden op het gebied van natuurlijke taalverwerking (NLP), zoals het beantwoorden van vragen en sentimentanalyse. Het gebruikt BookCorpus en de Engelse Wikipedia als modellen voor pretraining-referenties, met respectievelijk 800 miljoen en 2,5 miljard woorden.

BERT werd voor het eerst aangekondigd als een open-source onderzoeksproject En academisch papier in oktober 2018. De technologie is inmiddels geïmplementeerd in Google Zoeken. Vroege literatuur over BERT vergelijk het met OpenAI's ChatGPT in november 2018, en merkte op dat de technologie van Google diep bidirectioneel is, wat helpt bij het voorspellen van inkomende tekst. Ondertussen is OpenAI GPT unidirectioneel en kan het alleen reageren op complexe vragen.

Meena door Google

Meena is een chatbot die Google geïntroduceerd in januari 2020 met de mogelijkheid om op een menselijke manier te converseren. Voorbeelden van zijn functies zijn onder meer eenvoudige gesprekken met interessante grappen en woordspelingen, zoals Meena die suggereerde dat koeien "Bovine sciences" studeren aan Harvard.

Voorbeeld van Google Meena-chatbot.

Als een direct alternatief voor OpenAI's GPT-2 had Meena de mogelijkheid om 8,5 keer zoveel gegevens te verwerken als zijn concurrent destijds. Het neurale netwerk bestaat uit 2,6 parameters en is getraind op sociale media-conversaties in het publieke domein. Meena behaalde ook een metrische score in Sensibleness and Specificity Average (SSA) van 79%, waardoor het een van de meest intelligente chatbots van zijn tijd is.

De Meena-code is beschikbaar op GitHub.

RoBERTa door Facebook

RoBERTa (Robustly Optimized BERT Pretraining Approach) is een andere geavanceerde versie van de originele BERT, die Facebook aangekondigd in juli 2019.

Facebook creëerde dit NLP-model met een grotere gegevensbron als pre-trainingsmodel. RoBERTa gebruikt CommonCrawl (CC-News), dat 63 miljoen Engelstalige nieuwsartikelen bevat die zijn gegenereerd tussen september 2016 en februari 2019, als dataset van 76 GB. Ter vergelijking: de originele BERT gebruikt volgens Facebook 16 GB aan gegevens tussen de Engelse Wikipedia- en BookCorpus-gegevenssets.

Silimar naar XLNet, RoBERTa versloeg BERT in een reeks benchmarkgegevenssets, volgens het onderzoek van Facebook. Om deze resultaten te krijgen, gebruikte het bedrijf niet alleen een grotere gegevensbron, maar trainde het ook zijn model voor een langere tijd.

Facebook heeft RoBERTa gemaakt open source in september 2019, en de code is beschikbaar op GitHub voor gemeenschapsexperimenten.

VentureBeat noemde GPT-2 in die tijd ook een van de opkomende AI-systemen.

XLNet van Google

XLNET is een op transformatoren gebaseerd autoregressief taalmodel dat is ontwikkeld door een team van Onderzoekers van Google Brain en Carnegie Mellon University. Het model is in wezen een meer geavanceerde BERT en werd voor het eerst tentoongesteld in juni 2019. De groep vond XLNet in ieder geval 16% efficiënter dan de originele BERT, die in 2018 werd aangekondigd, waarmee hij BERT kon verslaan in een test van 20 NLP-taken.

XLNet: een nieuwe pre-trainingsmethode voor NLP die BERT aanzienlijk verbetert op 20 taken (bijv. SQuAD, GLUE, RACE)

aankomst: https://t.co/C1tFMwZvyW

github (code + vooraf getrainde modellen): https://t.co/kI4jsVzT1u

met Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 juni 2019

Omdat zowel XLNet als BERT "gemaskeerde" tokens gebruiken om verborgen tekst te voorspellen, verbetert XLNet de efficiëntie door het voorspellende deel van het proces te versnellen. Bijvoorbeeld Amazon Alexa datawetenschapper Aishwarya Srinivasan uitgelegd dat XLNet in staat is om het woord "Nieuw" te identificeren als geassocieerd met de term "is een stad" alvorens te voorspellen dat de term "York" ook geassocieerd wordt met die term. Ondertussen moet BERT de woorden 'Nieuw' en 'York' afzonderlijk identificeren en ze vervolgens associëren met de term 'is een stad', bijvoorbeeld.

Met name GPT en GPT-2 zijn dat wel ook genoemd in deze uitleg uit 2019 als andere voorbeelden van autoregressieve taalmodellen.

XLNet-code en vooraf getrainde modellen zijn beschikbaar op GitHub. Het model is bekend bij de NLP-onderzoeksgemeenschap.

DialogGPT door Microsoft Research

De DialoGPT (Dialogue Generative Pre-trained Transformer) is een autoregressief taalmodel dat werd geïntroduceerd in november 2019 door Microsoft Research. Met overeenkomsten met GPT-2, was het model vooraf getraind om menselijke conversatie te genereren. De belangrijkste bron van informatie waren echter 147 miljoen multi-turn dialogen die uit Reddit-threads waren geschraapt.

DiabloGPT multi-turn generatie voorbeelden.

Dat heeft HumanFirst-hoofdevangelist Cobus Greyling opgemerkt zijn succes bij het implementeren van DialoGPT in de Telegram-berichtenservice om het model tot leven te brengen als een chatbot. Hij voegde eraan toe dat het gebruik van Amazon Web Services en Amazon SageMaker kan helpen bij het verfijnen van de code.

De DialoGPT-code is beschikbaar op GitHub.

ALBERT door Google

ALBERT (Een Lite BERT) is een ingekorte versie van de originele BERT en is in december 2019 door Google ontwikkeld.

Met ALBERT beperkte Google het aantal toegestane parameters in het model door parameters te introduceren met 'verborgen laag-insluitingen'.

Machineprestaties op de RACE-uitdaging (SAT-achtige begrijpend lezen) door Google

Dit verbeterde niet alleen op het BERT-model, maar ook op XLNet en RoBERTa omdat ALBERT kan worden getraind dezelfde grotere dataset met informatie die wordt gebruikt voor de twee nieuwere modellen, terwijl het vasthoudt aan kleinere parameters. In wezen werkt ALBERT alleen met de parameters die nodig zijn voor zijn functies, wat de prestaties en nauwkeurigheid verhoogde. Google gaf aan dat ALBERT BERT overtrof op 12 NLP-benchmarks, waaronder een SAT-achtige benchmark voor begrijpend lezen.

Hoewel GPT niet bij naam wordt genoemd, is het opgenomen in de afbeeldingen voor de ALBERT op het onderzoeksblog van Google.

Google heeft de ALBERT in januari 2020 als open-source uitgebracht en is geïmplementeerd bovenop Google's TensorFlow. De code is beschikbaar op GitHub.

T5 door Google

T5 (Text-to-Text Transfer Transformer) is een NLP-model geïntroduceerd door Google in 2019 die leent van een groot aantal eerdere modellen, waaronder onder andere GPT, BERT, XLNet, RoBERTa en ALBERT. Het voegt een nieuwe en unieke dataset genaamd Colossal Clean Crawled Corpus (C4), waardoor de transformator een hogere kwaliteit kan produceren en contextuele resultaten dan andere datasets in vergelijking met de Common Crawl-webschrapen die worden gebruikt XLNet.
Google T5 Text-To-Text Transfer Transformer pre-training.
De T5-vooropleiding leidde tot de creatie van chatbot-applicaties, waaronder InferKit Praat met Transformer en de AI-kerker spel. De tekstgeneratoren lijken op ChatGPT omdat ze u in staat stellen realistische gesprekken te genereren op basis van wat de AI genereert na uw eerste prompts of vragen.
De T5-code is beschikbaar op GitHub.

CTRL door Salesforce

CTRL van Salesforce (Computational Trust and Reasoning Layer) was een van de grootste publiekelijk uitgebrachte taalmodellen toen het werd aangekondigd in september 2019 door Salesforce. Het taalmodel met 1,6 miljard parameters kan worden gebruikt om grote hoeveelheden tekst tegelijk te analyseren, zoals die van webpagina's. Enkele mogelijke praktische toepassingen zijn koppeling met beoordelingen, beoordelingen en toeschrijvingen.
Voorbeeld van Salesforce CTRL-bronattributie.
Het CTRL-taalmodel kan tot op de interpunctie de intentie van een specifieke zoekopdracht onderscheiden. merkte Salesforce op het model kan het verschil oppikken tussen "opwarming van de aarde is een leugen". als een impopulaire mening en “Global warming is a lie” als een complottheorie vanwege het verschil in de periode in de zinnen en het opstellen van overeenkomstige Reddit-threads voor elk.
CTRL-verwijzingen tot 140 GB aan gegevens voor de vooropleiding van bronnen, waaronder Wikipedia, Project Gutenberg, Amazon-recensies en Reddit. Het verwijst ook naar een aantal internationale nieuws-, informatie- en trivia-bronnen.
De CTRL-code is beschikbaar op GitHub.

GShard door Google

GShard is een gigantisch taalvertaalmodel Dat Google geïntroduceerd in juni 2020 ten behoeve van het schalen van neurale netwerken. Het model bevat 600 miljard parameters, waardoor grote sets datatraining tegelijk mogelijk zijn. GShard is bijzonder bedreven in taal vertaling en opgeleid om in vier dagen 100 talen in het Engels te vertalen.

Blender door Facebook AI Research

Blender is een open-source chatbot die is geïntroduceerd in april 2020 door Facebook AI-onderzoek. Er is opgemerkt dat de chatbot verbeterde gespreksvaardigheden heeft ten opzichte van concurrerende modellen, met de mogelijkheid om te bieden boeiende gespreksonderwerpen, luister en toon begrip voor de inbreng van de partner, en toon empathie en persoonlijkheid.

Voorbeeld van een Blender-chatbot.

Blender is vergeleken met Google's Meena-chatbot, die op zijn beurt is vergeleken met OpenAI's GPT-2

De Blender-code is beschikbaar op Parl.ai.

Pegasus van Google

Pegasus is een model voor natuurlijke taalverwerking dat was geïntroduceerd door Google december 2019. Pegasus kan worden getraind om samenvattingen te maken, en vergelijkbaar met andere modellen zoals BERT, GPT-2, RoBERTa, XLNet, ALBERT en T5, kan het worden afgestemd op specifieke taken. Pegasus is getest op zijn efficiëntie bij het samenvatten van nieuws, wetenschap, verhalen, instructies, e-mails, patenten en wetsvoorstellen in vergelijking met mensen.

De PEGASUS NLP is vergeleken met een mens in termen van samenvattende kwaliteit.

De Pegasus-code is beschikbaar op GitHub.

Aanbevelingen van de redactie

  • Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?
  • ChatGPT: het laatste nieuws, controverses en tips die u moet weten
  • Het verkeer op de ChatGPT-website is voor het eerst gedaald
  • De Bing-browsefunctie van ChatGPT is uitgeschakeld vanwege een toegangsfout in de betaalmuur
  • De beste AI-chatbots om uit te proberen: ChatGPT, Bard en meer