Найкращі альтернативи ChatGPT (згідно ChatGPT)

ChatGPT швидко став улюбленцем генеративного ШІ, але це навряд чи єдиний гравець у грі. На додаток до всі інші інструменти штучного інтелекту які роблять такі речі, як генерація зображень, є також низка прямих конкурентів ChatGPT — принаймні я так припускав.

Зміст

  • Bing від Microsoft
  • BERT від Google
  • Міна від Google
  • RoBERTa через Facebook
  • XLNet від Google
  • DialoGPT від Microsoft Research
  • ALBERT від Google
  • T5 від Google
  • CTRL від Salesforce
  • GShard від Google
  • Blender від Facebook AI Research
  • Pegasus від Google

Чому б не запитати про це у ChatGPT? Саме це я зробив, щоб отримати цей список, сподіваючись знайти кілька варіантів для них стикаючись із повідомленнями «недостатньо можливостей»., або інші, хто просто хоче спробувати щось нове. Не всі з них такі доступні для громадськості, як ChatGPT, але, згідно з ChatGPT, це найкращі альтернативи.

Рекомендовані відео

Bing від Microsoft

Перероблена пошукова система Bing від Microsoft.

Перш ніж потрапити в список вибраних ШІ, найкращою альтернативою ChatGPT є ChatGPT. Microsoft нещодавно додала штучний інтелект у свою пошукову систему Bing

, і незабаром планується розгорнути цю функцію в браузері Edge.

Пов'язані

  • Розробник ChatGPT OpenAI стикається з розслідуванням FTC щодо законів про захист прав споживачів
  • Рекордне зростання ChatGPT було повалено новою вірусною програмою
  • OpenAI створює нову команду, щоб зупинити надрозумний штучний інтелект

Це лише в попередній версії, але ви все ще можете спробувати новий чат-бот AI на bing.com/new зараз. Microsoft каже, що спочатку обмежує кількість запитів, але ви можете приєднатися до списку очікування Bing ChatGPT отримати сповіщення, коли буде доступна повна версія.

BERT від Google

BERT (Bidirectional Encoder Representations from Transformers) — це модель машинного навчання, розроблена Google. У багатьох результатах ChatGPT згадуються проекти Google, які ви побачите пізніше в цьому списку.

BERT відомий своїми здібностями обробки природної мови (NLP), такими як відповіді на запитання та аналіз настроїв. Він використовує BookCorpus і англійську Вікіпедію як моделі для попереднього навчання, вивчивши 800 мільйонів і 2,5 мільярда слів відповідно.

BERT вперше було оголошено як дослідницький проект з відкритим кодом і академічна робота у жовтні 2018 року. Відтоді цю технологію було впроваджено в Пошук Google. Рання література про BERT порівняйте його з ChatGPT OpenAI у листопаді 2018 року, зазначивши, що технологія Google глибоко двонаправлена, що допомагає передбачати вхідний текст. Водночас OpenAI GPT є односпрямованим і може відповідати лише на складні запити.

Міна від Google

Міна – це чат-бот, який Google представив у січні 2020 року зі здатністю розмовляти по-людськи. Приклади його функцій включають прості розмови, які включають цікаві жарти та каламбури, як-от Міна, яка пропонує коровам вивчати «науки про бичаток» у Гарварді.

Приклад чат-бота Google Meena.

Як пряма альтернатива OpenAI GPT-2, Meena мала можливість обробляти у 8,5 разів більше даних, ніж її конкурент на той час. Його нейронна мережа складається з 2,6 параметрів і навчається на розмовах у соціальних мережах у відкритому доступі. Meena також отримала метричну оцінку за середнім показником чутливості та специфічності (SSA) у 79%, що робить її одним із найрозумніших чат-ботів свого часу.

Код Meena доступний на GitHub.

RoBERTa через Facebook

РоБЕРта (Надійно оптимізований BERT Pretraining Approach) — це ще одна вдосконалена версія оригінального BERT, яка Facebook оголосив у липні 2019 року.

Facebook створив цю модель НЛП із більшим джерелом даних як модель попереднього навчання. RoBERTa використовує CommonCrawl (CC-News), який включає 63 мільйони статей новин англійською мовою, створених у період з вересня 2016 року по лютий 2019 року, як набір даних розміром 76 ГБ. Для порівняння, за даними Facebook, оригінальний BERT використовує 16 ГБ даних між наборами даних англійської Вікіпедії та BookCorpus.

Silimar до XLNet, згідно з дослідженням Facebook, RoBERTa переміг BERT у наборі контрольних наборів даних. Щоб отримати ці результати, компанія не лише використала більше джерело даних, але й попередньо підготувала свою модель для a довший період часу.

Facebook зробив RoBERTa відкрите джерело у вересні 2019 року, а його код доступний на GitHub для спільного експериментування.

VentureBeat також згадав GPT-2 серед нових систем штучного інтелекту в той час.

XLNet від Google

XLNET — це модель авторегресійної мови на основі трансформатора, розроблена командою Google Brain і дослідники Університету Карнегі-Меллона. Модель, по суті, є більш просунутою BERT і вперше була представлена ​​в червні 2019 року. Група виявила, що XLNet принаймні на 16% ефективніше ніж оригінальний BERT, який був анонсований у 2018 році, і він зміг перемогти BERT у тесті з 20 завдань НЛП.

XLNet: новий метод попереднього навчання для НЛП, який значно покращує BERT у 20 завданнях (наприклад, SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (код + попередньо підготовлені моделі): https://t.co/kI4jsVzT1u

з Жилін Ян, @ZihangDai, Імін Ян, Хайме Карбонелл, @rsalakhupic.twitter.com/JboOekUVPQ

— Куок Ле (@quocleix) 20 червня 2019 р

Оскільки XLNet і BERT використовують «замасковані» маркери для передбачення прихованого тексту, XLNet підвищує ефективність, прискорюючи прогнозну частину процесу. Наприклад, Amazon Алекса дослідник даних Айшварія Срінівасан пояснив що XLNet може ідентифікувати слово «Новий» як таке, що асоціюється з терміном «це місто», перш ніж передбачити, що термін «Йорк» також асоціюється з цим терміном. Тим часом BERT потрібно ідентифікувати слова «New» і «York» окремо, а потім пов’язати їх із терміном «is a city», наприклад.

Зокрема, це GPT і GPT-2 також згадується у цьому пояснювачі від 2019 року як інші приклади авторегресійних мовних моделей.

Код XLNet і попередньо підготовлені моделі є доступний на GitHub. Модель добре відома дослідникам НЛП.

DialoGPT від Microsoft Research

DialoGPT (генеративний попередньо навчений трансформатор діалогу) — це авторегресійна модель мови, яка було введено у листопаді 2019 року Microsoft Research. Маючи подібність до GPT-2, модель була попередньо навчена генерувати людиноподібну розмову. Однак його основним джерелом інформації були 147 мільйонів багатоповоротних діалогів, зібраних із потоків Reddit.

Приклади багатоповоротної генерації DiabloGPT.

Головний євангеліст HumanFirst Кобус Грейлінг зазначив його успіх у впровадженні DialoGPT у службу обміну повідомленнями Telegram, щоб втілити модель у життя як чат-бот. Він додав, що використання Amazon Web Services і Amazon SageMaker може допомогти в тонкому налаштуванні коду.

Код DialoGPT доступний на GitHub.

ALBERT від Google

АЛЬБЕРТ (A Lite BERT) – це скорочена версія оригінального BERT, розроблена Google у грудні 2019 року.

За допомогою ALBERT Google обмежив кількість параметрів, дозволених у моделі, запровадивши параметри з «вбудованими прихованими шарами».

Ефективність машини під час тесту RACE (розуміння прочитаного, подібного до SAT) від Google

Це покращено не лише на моделі BERT, але й на XLNet і RoBERTa, оскільки ALBERT можна навчати на той самий більший набір даних, що використовується для двох нових моделей, але дотримується меншого параметри. По суті, ALBERT працює лише з параметрами, необхідними для своїх функцій, що підвищує продуктивність і точність. Google детально зазначив, що він виявив, що ALBERT перевищує BERT за 12 тестами НЛП, включаючи тест розуміння прочитаного, схожий на SAT.

Хоча ім’я не згадується, GPT включено в зображення для ALBERT у дослідницькому блозі Google.

У січні 2020 року Google випустив ALBERT з відкритим вихідним кодом і реалізував його на основі TensorFlow від Google. Код доступний на GitHub.

T5 від Google

T5 (Text-to-Text Transfer Transformer) — модель НЛП представлений Google у 2019 році запозичено з безлічі попередніх моделей, зокрема GPT, BERT, XLNet, RoBERTa та ALBERT тощо. Це додає a новий унікальний набір даних називається Colossal Clean Crawled Corpus (C4), що дозволяє трансформатору виробляти більш високу якість і контекстні результати, ніж інші набори даних у порівнянні з веб-збірками Common Crawl, які використовуються для XLNet.
Попереднє навчання Google T5 Text-To-Text Transfer Transformer.
Попереднє навчання T5 призвело до створення додатків чат-ботів, в тому числі InferKit Talk To Transformer і AI Dungeon гра. Генератори тексту нагадують ChatGPT, оскільки вони дозволяють створювати реалістичні розмови на основі того, що генерує ШІ після ваших початкових підказок або запитів.
Код T5 доступний на GitHub.

CTRL від Salesforce

CTRL від Salesforce (Computational Trust and Reasoning Layer) була однією з найбільших загальнодоступних мовних моделей, коли було оголошено у вересні 2019 року від Salesforce. Мовну модель із 1,6 мільярда параметрів можна використовувати для одночасного аналізу великих текстів, наприклад, пов’язаних із веб-сторінками. Деякі потенційні практичні застосування включають поєднання з оглядами, рейтингами та посиланнями.
Приклад атрибуції джерела Salesforce CTRL.
Мовна модель CTRL може розрізняти намір конкретного запиту аж до знаків пунктуації. Salesforce зазначив модель може зрозуміти різницю між «Глобальне потепління — це брехня». як непопулярну думку та «Глобальне потепління є a брехня» як теорію змови через різницю крапок у фразах і створити відповідні теми Reddit для кожен.
CTRL посилання до 140 ГБ даних для попереднього навчання з джерел, включаючи Вікіпедію, проект Гутенберга, огляди Amazon і Reddit. Він також посилається на ряд міжнародних ресурсів новин, інформації та дрібниць.
Код CTRL доступний на GitHub.

GShard від Google

GShard - це a гігантська модель мовного перекладу що Google представив у червні 2020 року з метою масштабування нейронної мережі. Модель включає 600 мільярдів параметрів, що дозволяє одночасно тренувати великі набори даних. GShard особливо вправний у мова перекладу і навчитися перекладати 100 мов на англійську за чотири дні.

Blender від Facebook AI Research

Blender — це чат-бот із відкритим вихідним кодом, представлений у квітень 2020 р від Facebook AI Research. Було відмічено, що чат-бот покращив навички спілкування порівняно з моделями конкурентів із можливістю надання зацікавити теми для розмови, слухати та демонструвати розуміння вкладу свого партнера, а також демонструвати емпатію та особистість.

Приклад чат-бота Blender.

Blender порівнюють із чат-ботом Meena від Google, який, у свою чергу, порівнюють із GPT-2 від OpenAI

Код Blender доступний на Parl.ai.

Pegasus від Google

Pegasus — це модель обробки природної мови, яка була представлений Google у грудні 2019 року. Pegasus можна навчити створювати підсумки, і, подібно до інших моделей, таких як BERT, GPT-2, RoBERTa, XLNet, ALBERT і T5, його можна точно налаштувати для конкретних завдань. Pegasus перевірено на його ефективність у підсумкуванні новин, науки, історій, інструкцій, електронних листів, патентів і законодавчих законопроектів порівняно з людьми.

НЛП ПЕГАС порівнюють з людиною з точки зору якості узагальнення.

Код Pegasus доступний на GitHub.

Рекомендації редакції

  • Google Bard тепер може говорити, але чи може він заглушити ChatGPT?
  • ChatGPT: останні новини, суперечки та поради, які вам потрібно знати
  • Трафік веб-сайту ChatGPT впав вперше
  • Функцію перегляду Bing у ChatGPT вимкнено через помилку платного доступу
  • Найкращі чат-боти штучного інтелекту, які можна спробувати: ChatGPT, Bard тощо