Най-добрите алтернативи на ChatGPT (според ChatGPT)

ChatGPT бързо се превърна в любимец на генеративния AI, но едва ли е единственият играч в играта. В допълнение към всички останали AI инструменти там които правят неща като генериране на изображения, има и редица директни конкуренти с ChatGPT - или поне така предположих.

Съдържание

  • Bing от Microsoft
  • BERT от Google
  • Meena от Google
  • RoBERTa от Facebook
  • XLNet от Google
  • DialoGPT от Microsoft Research
  • ALBERT от Google
  • T5 от Google
  • CTRL от Salesforce
  • GShard от Google
  • Blender от Facebook AI Research
  • Pegasus от Google

Защо не попитате ChatGPT за това? Точно това направих, за да получа този списък, надявайки се да намеря някои опции за тях изправени пред известия „на капацитета“., или други, които просто искат да опитат нещо ново. Не всички от тях са толкова достъпни за обществеността, колкото ChatGPT, но според ChatGPT това са най-добрите алтернативи.

Препоръчани видеоклипове

Bing от Microsoft

Преработената търсачка Bing на Microsoft.

Преди да влезете в избраните от AI, най-добрата алтернатива на ChatGPT е, добре, ChatGPT. Microsoft наскоро добави AI в своята търсачка Bing, и планира скоро да пусне функцията в браузъра Edge.

Свързани

  • Създателят на ChatGPT OpenAI е изправен пред разследване на FTC относно законите за защита на потребителите
  • Рекордният растеж на ChatGPT току-що беше детрониран от ново вирусно приложение
  • OpenAI изгражда нов екип, за да спре свръхинтелигентния AI да стане измамник

Той е само в предварителен преглед, но все още можете да изпробвате новия AI chatbot на bing.com/нов точно сега. Microsoft казва, че първоначално ограничава броя на заявките, но вие можете присъединете се към списъка за чакане на Bing ChatGPT да бъдете уведомени, когато пълната версия е налична.

BERT от Google

BERT (Bidirectional Encoder Representations from Transformers) е модел за машинно обучение, разработен от Google. Много от резултатите на ChatGPT споменаха проекти на Google, които ще видите по-късно в този списък.

BERT е известен със своите способности за обработка на естествен език (NLP), като отговаряне на въпроси и анализ на настроението. Той използва BookCorpus и Wikipedia на английски език като свои модели за справки за предварителна подготовка, като е научил съответно 800 милиона и 2,5 милиарда думи.

BERT е обявен за първи път като изследователски проект с отворен код и академичен труд през октомври 2018 г. Оттогава технологията е внедрена в Google Търсене. Ранна литература относно BERT сравнете го с ChatGPT на OpenAI през ноември 2018 г., отбелязвайки, че технологията на Google е дълбоко двупосочна, което помага при предвиждането на входящия текст. Междувременно OpenAI GPT е еднопосочен и може да отговаря само на сложни заявки.

Meena от Google

Meena е чатбот, който Google представи през януари 2020 г. със способността да разговарят по човешки начин. Примери за неговите функции включват прости разговори, които включват интересни шеги и каламбури, като например предложението на Мийна, че кравите изучават „науки за говеда“ в Харвард.

Пример за чатбот на Google Meena.

Като директна алтернатива на GPT-2 на OpenAI, Meena имаше способността да обработва 8,5 пъти повече данни от своя конкурент по това време. Нейната невронна мрежа се състои от 2,6 параметъра и се обучава на обществени разговори в социалните медии. Meena също получи метричен резултат за чувствителност и средна специфичност (SSA) от 79%, което го прави един от най-интелигентните чатботове на своето време.

Кодът на Meena е достъпен на GitHub.

RoBERTa от Facebook

RoBERTa (Robustly Optimized BERT Pretraining Approach) е друга усъвършенствана версия на оригиналния BERT, който Facebook обяви през юли 2019 г.

Facebook създаде този НЛП модел с по-голям източник на данни като модел за предварително обучение. RoBERTa използва CommonCrawl (CC-News), който включва 63 милиона английски новинарски статии, генерирани между септември 2016 г. и февруари 2019 г., като свой набор от данни от 76 GB. За сравнение, оригиналният BERT използва 16 GB данни между своите набори от данни от Wikipedia на английски и BookCorpus, според Facebook.

Silimar към XLNet, RoBERTa победи BERT в набор от сравнителни набори от данни, според проучване на Facebook. За да получи тези резултати, компанията не само използва по-голям източник на данни, но и предварително обучи своя модел за a по-дълъг период от време.

Facebook направи RoBERTa отворен код през септември 2019 г., а кодът му е наличен в GitHub за експериментиране на общността.

VentureBeat също спомена GPT-2 сред нововъзникващите AI системи през това време.

XLNet от Google

XLNET е базиран на трансформатор авторегресивен езиков модел, разработен от екип от Google Brain и изследователи от университета Карнеги Мелън. Моделът по същество е по-усъвършенстван BERT и беше представен за първи път през юни 2019 г. Групата установи, че XLNet е поне 16% по-ефективен отколкото оригиналния BERT, който беше обявен през 2018 г., като успя да победи BERT в тест от 20 NLP задачи.

XLNet: нов метод за предварително обучение за НЛП, който значително подобрява BERT за 20 задачи (напр. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (код + предварително обучени модели): https://t.co/kI4jsVzT1u

с Жилин Янг, @ZihangDai, Йиминг Янг, Хайме Карбонел, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 юни 2019 г

Тъй като XLNet и BERT използват „маскирани“ токени за предсказване на скрит текст, XLNet подобрява ефективността, като ускорява предсказващата част от процеса. Например Amazon Алекса учен по данни Айшвария Сринивасан обясни че XLNet е в състояние да идентифицира думата „Нов“ като свързана с термина „е град“, преди да предвиди термина „Йорк“ като също свързан с този термин. Междувременно BERT трябва да идентифицира думите „Нов“ и „Йорк“ поотделно и след това да ги свърже с термина „е град“, например.

По-специално GPT и GPT-2 са също се споменава в този обяснител от 2019 г. като други примери за авторегресивни езикови модели.

XLNet кодът и предварително обучените модели са наличен в GitHub. Моделът е добре известен сред изследователската общност на НЛП.

DialoGPT от Microsoft Research

DialoGPT (Dialogue Generative Pre-trained Transformer) е авторегресивен езиков модел, който беше въведена през ноември 2019 г. от Microsoft Research. С прилики с GPT-2, моделът беше предварително обучен да генерира човешки разговор. Неговият основен източник на информация обаче бяха 147 милиона многооборотни диалога, извлечени от нишките на Reddit.

Примери за многоходово генериране на DiabloGPT.

Главният евангелист на HumanFirst Кобус Грейлинг отбеляза успехът му при внедряването на DialoGPT в услугата за съобщения на Telegram, за да вдъхне живот на модела като чатбот. Той добави, че използването на Amazon Web Services и Amazon SageMaker може да помогне с фината настройка на кода.

Кодът DialoGPT е достъпен на GitHub.

ALBERT от Google

ALBERT (A Lite BERT) е съкратена версия на оригиналния BERT и е разработен от Google през декември 2019 г.

С ALBERT Google ограничи броя на разрешените параметри в модела, като въведе параметри със „вграждане на скрити слоеве“.

Производителност на машината в предизвикателството RACE (подобно на SAT четене с разбиране) от Google

Това се подобри не само при модела BERT, но и при XLNet и RoBERTa, защото ALBERT може да се обучава на същият по-голям набор от информация, използван за двата по-нови модела, като същевременно се придържа към по-малък параметри. По същество ALBERT работи само с параметрите, необходими за неговите функции, което повишава производителността и точността. Google уточнява, че е установил, че ALBERT надвишава BERT на 12 NLP бенчмарка, включително подобен на SAT показател за четене с разбиране.

Въпреки че не е споменат по име, GPT е включен в изображенията за ALBERT в блога за изследвания на Google.

Google пусна ALBERT като отворен код през януари 2020 г. и беше внедрен върху TensorFlow на Google. Кодът е достъпен на GitHub.

T5 от Google

T5 (Text-to-Text Transfer Transformer) е NLP модел въведен от Google през 2019 г., който е заимстван от множество предишни модели, включително GPT, BERT, XLNet, RoBERTa и ALBERT, между другото. Той добавя a нов и уникален набор от данни наречен Colossal Clean Crawled Corpus (C4), който позволява на трансформатора да произвежда по-високо качество и контекстуални резултати в сравнение с други набори от данни в сравнение с уеб скраповете на Common Crawl, използвани за XLNet.
Google T5 Text-To-Text Transfer Transformer предварително обучение.
Предварителната подготовка на T5 доведе до създаването на чатбот приложения, включително InferKit Говорете с Transformer и на AI Dungeon игра. Текстовите генератори наподобяват ChatGPT по това, че ви позволяват да генерирате реалистични разговори въз основа на това, което AI генерира след първоначалните ви подкани или запитвания.
Кодът T5 е наличен на GitHub.

CTRL от Salesforce

CTRL от Salesforce (Computational Trust and Reasoning Layer) беше един от най-големите публично пуснати езикови модели, когато беше обявено през септември 2019 г. от Salesforce. Езиковият модел с 1,6 милиарда параметъра може да се използва за анализ на големи текстове наведнъж, като тези, свързани с уеб страници. Някои потенциални практически приложения включват съчетаване с рецензии, оценки и приписвания.
Пример за приписване на източник на Salesforce CTRL.
Езиковият модел CTRL може да диференцира до препинателните знаци намерението на конкретна заявка. Salesforce отбеляза моделът може да разбере разликата между „Глобалното затопляне е лъжа“. като непопулярно мнение и „Глобалното затопляне е a лъжа“ като теория на конспирацията поради разликата в точката във фразите и съставете съответни теми в Reddit за всеки.
CTRL препратки до 140 GB данни за предварително обучение от източници, включително Wikipedia, Project Gutenberg, рецензии на Amazon и Reddit. Той също така препраща към редица международни ресурси за новини, информация и любопитни факти.
Кодът CTRL е наличен на GitHub.

GShard от Google

GShard е a гигантски модел за превод на език че Google представи през юни 2020 г. с цел мащабиране на невронни мрежи. Моделът включва 600 милиарда параметъра, което позволява обучение на големи набори от данни наведнъж. GShard е особено умел в езиков превод и да бъдат обучени да превеждат 100 езика на английски за четири дни.

Blender от Facebook AI Research

Blender е чатбот с отворен код, който беше въведен в април 2020 г от Facebook AI Research. Беше отбелязано, че чатботът има подобрени умения за разговор в сравнение с конкурентните модели, с възможността да предоставя ангажиращи теми за говорене, изслушвайте и проявявайте разбиране към приноса на партньора си и демонстрирайте съпричастност и личност.

Пример за чатбот на Blender.

Blender е сравнен с чатбота Meena на Google, който от своя страна е сравнен с GPT-2 на OpenAI

Кодът на Blender е достъпен на Parl.ai.

Pegasus от Google

Pegasus е модел за обработка на естествен език, който беше въведен от Google през декември 2019 г. Pegasus може да бъде обучен да създава резюмета и подобно на други модели като BERT, GPT-2, RoBERTa, XLNet, ALBERT и T5, той може да бъде фино настроен за конкретни задачи. Pegasus е тестван за неговата ефективност при обобщаване на новини, наука, истории, инструкции, имейли, патенти и законодателни законопроекти в сравнение с хора.

НЛП PEGASUS е сравняван с човек по отношение на качеството на обобщаване.

Кодът на Pegasus е достъпен на GitHub.

Препоръки на редакторите

  • Google Bard вече може да говори, но може ли да заглуши ChatGPT?
  • ChatGPT: последните новини, спорове и съвети, които трябва да знаете
  • Трафикът на уебсайта на ChatGPT е спаднал за първи път
  • Функцията за сърфиране в Bing на ChatGPT е деактивирана поради грешка в достъпа до платена стена
  • Най-добрите AI чатботове за изпробване: ChatGPT, Bard и други