ChatGPT is snel de lieveling van generatieve AI geworden, maar het is niet de enige speler in het spel. In aanvulling op alle andere AI-tools die er zijn die dingen doen als het genereren van afbeeldingen, er zijn ook een aantal directe concurrenten met ChatGPT - dat nam ik tenminste aan.
Inhoud
- Bing van Microsoft
- BERT door Google
- Meena door Google
- RoBERTa door Facebook
- XLNet van Google
- DialogGPT door Microsoft Research
- ALBERT door Google
- T5 door Google
- CTRL door Salesforce
- GShard door Google
- Blender door Facebook AI Research
- Pegasus van Google
Waarom vraag je ChatGPT er niet naar? Dat is precies wat ik deed om deze lijst te krijgen, in de hoop daar wat opties voor te vinden geconfronteerd met "op capaciteit" mededelingen, of anderen die gewoon iets nieuws willen proberen. Deze zijn niet allemaal even toegankelijk voor het publiek als ChatGPT, maar volgens ChatGPT zijn dit de beste alternatieven.
Aanbevolen video's
Bing van Microsoft
Voordat we ingaan op de keuzes die door de AI worden vermeld, is het beste alternatief voor ChatGPT, nou ja, ChatGPT. Microsoft onlangs
voegde de AI toe aan zijn Bing-zoekmachine, en het is van plan de functie binnenkort uit te rollen naar de Edge-browser.Verwant
- ChatGPT-maker OpenAI wordt geconfronteerd met FTC-onderzoek over wetten voor consumentenbescherming
- De recordgroei van ChatGPT is zojuist onttroond door een nieuwe virale app
- OpenAI bouwt nieuw team om te voorkomen dat superintelligente AI schurkenstaten wordt
Het is alleen in preview, maar je kunt de nieuwe AI-chatbot nog steeds uitproberen op bing.com/nieuw direct. Microsoft zegt dat het in eerste instantie het aantal zoekopdrachten beperkt, maar dat kan word lid van de Bing ChatGPT-wachtlijst om op de hoogte te worden gehouden wanneer de volledige versie beschikbaar is.
BERT door Google
BERT (Bidirectional Encoder Representations from Transformers) is een machine learning-model ontwikkeld door Google. Veel van de resultaten van ChatGPT noemden projecten van Google, die u verderop in deze lijst zult zien.
BERT staat bekend om zijn vaardigheden op het gebied van natuurlijke taalverwerking (NLP), zoals het beantwoorden van vragen en sentimentanalyse. Het gebruikt BookCorpus en de Engelse Wikipedia als modellen voor pretraining-referenties, met respectievelijk 800 miljoen en 2,5 miljard woorden.
BERT werd voor het eerst aangekondigd als een open-source onderzoeksproject En academisch papier in oktober 2018. De technologie is inmiddels geïmplementeerd in Google Zoeken. Vroege literatuur over BERT vergelijk het met OpenAI's ChatGPT in november 2018, en merkte op dat de technologie van Google diep bidirectioneel is, wat helpt bij het voorspellen van inkomende tekst. Ondertussen is OpenAI GPT unidirectioneel en kan het alleen reageren op complexe vragen.
Meena door Google
Meena is een chatbot die Google geïntroduceerd in januari 2020 met de mogelijkheid om op een menselijke manier te converseren. Voorbeelden van zijn functies zijn onder meer eenvoudige gesprekken met interessante grappen en woordspelingen, zoals Meena die suggereerde dat koeien "Bovine sciences" studeren aan Harvard.
Als een direct alternatief voor OpenAI's GPT-2 had Meena de mogelijkheid om 8,5 keer zoveel gegevens te verwerken als zijn concurrent destijds. Het neurale netwerk bestaat uit 2,6 parameters en is getraind op sociale media-conversaties in het publieke domein. Meena behaalde ook een metrische score in Sensibleness and Specificity Average (SSA) van 79%, waardoor het een van de meest intelligente chatbots van zijn tijd is.
De Meena-code is beschikbaar op GitHub.
RoBERTa door Facebook
RoBERTa (Robustly Optimized BERT Pretraining Approach) is een andere geavanceerde versie van de originele BERT, die Facebook aangekondigd in juli 2019.
Facebook creëerde dit NLP-model met een grotere gegevensbron als pre-trainingsmodel. RoBERTa gebruikt CommonCrawl (CC-News), dat 63 miljoen Engelstalige nieuwsartikelen bevat die zijn gegenereerd tussen september 2016 en februari 2019, als dataset van 76 GB. Ter vergelijking: de originele BERT gebruikt volgens Facebook 16 GB aan gegevens tussen de Engelse Wikipedia- en BookCorpus-gegevenssets.
Silimar naar XLNet, RoBERTa versloeg BERT in een reeks benchmarkgegevenssets, volgens het onderzoek van Facebook. Om deze resultaten te krijgen, gebruikte het bedrijf niet alleen een grotere gegevensbron, maar trainde het ook zijn model voor een langere tijd.
Facebook heeft RoBERTa gemaakt open source in september 2019, en de code is beschikbaar op GitHub voor gemeenschapsexperimenten.
VentureBeat noemde GPT-2 in die tijd ook een van de opkomende AI-systemen.
XLNet van Google
XLNET is een op transformatoren gebaseerd autoregressief taalmodel dat is ontwikkeld door een team van Onderzoekers van Google Brain en Carnegie Mellon University. Het model is in wezen een meer geavanceerde BERT en werd voor het eerst tentoongesteld in juni 2019. De groep vond XLNet in ieder geval 16% efficiënter dan de originele BERT, die in 2018 werd aangekondigd, waarmee hij BERT kon verslaan in een test van 20 NLP-taken.
XLNet: een nieuwe pre-trainingsmethode voor NLP die BERT aanzienlijk verbetert op 20 taken (bijv. SQuAD, GLUE, RACE)
aankomst: https://t.co/C1tFMwZvyW
github (code + vooraf getrainde modellen): https://t.co/kI4jsVzT1u
met Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20 juni 2019
Omdat zowel XLNet als BERT "gemaskeerde" tokens gebruiken om verborgen tekst te voorspellen, verbetert XLNet de efficiëntie door het voorspellende deel van het proces te versnellen. Bijvoorbeeld Amazon Alexa datawetenschapper Aishwarya Srinivasan uitgelegd dat XLNet in staat is om het woord "Nieuw" te identificeren als geassocieerd met de term "is een stad" alvorens te voorspellen dat de term "York" ook geassocieerd wordt met die term. Ondertussen moet BERT de woorden 'Nieuw' en 'York' afzonderlijk identificeren en ze vervolgens associëren met de term 'is een stad', bijvoorbeeld.
Met name GPT en GPT-2 zijn dat wel ook genoemd in deze uitleg uit 2019 als andere voorbeelden van autoregressieve taalmodellen.
XLNet-code en vooraf getrainde modellen zijn beschikbaar op GitHub. Het model is bekend bij de NLP-onderzoeksgemeenschap.
DialogGPT door Microsoft Research
De DialoGPT (Dialogue Generative Pre-trained Transformer) is een autoregressief taalmodel dat werd geïntroduceerd in november 2019 door Microsoft Research. Met overeenkomsten met GPT-2, was het model vooraf getraind om menselijke conversatie te genereren. De belangrijkste bron van informatie waren echter 147 miljoen multi-turn dialogen die uit Reddit-threads waren geschraapt.
Dat heeft HumanFirst-hoofdevangelist Cobus Greyling opgemerkt zijn succes bij het implementeren van DialoGPT in de Telegram-berichtenservice om het model tot leven te brengen als een chatbot. Hij voegde eraan toe dat het gebruik van Amazon Web Services en Amazon SageMaker kan helpen bij het verfijnen van de code.
De DialoGPT-code is beschikbaar op GitHub.
ALBERT door Google
ALBERT (Een Lite BERT) is een ingekorte versie van de originele BERT en is in december 2019 door Google ontwikkeld.
Met ALBERT beperkte Google het aantal toegestane parameters in het model door parameters te introduceren met 'verborgen laag-insluitingen'.
Dit verbeterde niet alleen op het BERT-model, maar ook op XLNet en RoBERTa omdat ALBERT kan worden getraind dezelfde grotere dataset met informatie die wordt gebruikt voor de twee nieuwere modellen, terwijl het vasthoudt aan kleinere parameters. In wezen werkt ALBERT alleen met de parameters die nodig zijn voor zijn functies, wat de prestaties en nauwkeurigheid verhoogde. Google gaf aan dat ALBERT BERT overtrof op 12 NLP-benchmarks, waaronder een SAT-achtige benchmark voor begrijpend lezen.
Hoewel GPT niet bij naam wordt genoemd, is het opgenomen in de afbeeldingen voor de ALBERT op het onderzoeksblog van Google.
Google heeft de ALBERT in januari 2020 als open-source uitgebracht en is geïmplementeerd bovenop Google's TensorFlow. De code is beschikbaar op GitHub.
T5 door Google
CTRL door Salesforce
GShard door Google
GShard is een gigantisch taalvertaalmodel Dat Google geïntroduceerd in juni 2020 ten behoeve van het schalen van neurale netwerken. Het model bevat 600 miljard parameters, waardoor grote sets datatraining tegelijk mogelijk zijn. GShard is bijzonder bedreven in taal vertaling en opgeleid om in vier dagen 100 talen in het Engels te vertalen.
Blender door Facebook AI Research
Blender is een open-source chatbot die is geïntroduceerd in april 2020 door Facebook AI-onderzoek. Er is opgemerkt dat de chatbot verbeterde gespreksvaardigheden heeft ten opzichte van concurrerende modellen, met de mogelijkheid om te bieden boeiende gespreksonderwerpen, luister en toon begrip voor de inbreng van de partner, en toon empathie en persoonlijkheid.
Blender is vergeleken met Google's Meena-chatbot, die op zijn beurt is vergeleken met OpenAI's GPT-2
De Blender-code is beschikbaar op Parl.ai.
Pegasus van Google
Pegasus is een model voor natuurlijke taalverwerking dat was geïntroduceerd door Google december 2019. Pegasus kan worden getraind om samenvattingen te maken, en vergelijkbaar met andere modellen zoals BERT, GPT-2, RoBERTa, XLNet, ALBERT en T5, kan het worden afgestemd op specifieke taken. Pegasus is getest op zijn efficiëntie bij het samenvatten van nieuws, wetenschap, verhalen, instructies, e-mails, patenten en wetsvoorstellen in vergelijking met mensen.
De Pegasus-code is beschikbaar op GitHub.
Aanbevelingen van de redactie
- Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?
- ChatGPT: het laatste nieuws, controverses en tips die u moet weten
- Het verkeer op de ChatGPT-website is voor het eerst gedaald
- De Bing-browsefunctie van ChatGPT is uitgeschakeld vanwege een toegangsfout in de betaalmuur
- De beste AI-chatbots om uit te proberen: ChatGPT, Bard en meer