Лучшие альтернативы ChatGPT (по версии ChatGPT)

ЧатGPT быстро стал любимцем генеративного ИИ, но вряд ли он единственный игрок в игре. В дополнение к все остальные инструменты ИИ которые делают такие вещи, как генерация изображений, у ChatGPT также есть ряд прямых конкурентов — по крайней мере, я так предполагал.

Содержание

  • Бинг от Майкрософт
  • БЕРТ от Google
  • Мина от Google
  • Роберта на Facebook
  • XLNet от Google
  • DialoGPT от Microsoft Research
  • АЛЬБЕРТ от Google
  • T5 от Google
  • CTRL от Salesforce
  • GShard от Google
  • Blender от Facebook AI Research
  • Пегас от Google

Почему бы не спросить об этом ChatGPT? Это именно то, что я сделал, чтобы получить этот список, надеясь найти некоторые варианты для тех, сталкиваясь с уведомлениями о занятости, или другие, которые просто хотят попробовать что-то новое. Не все из них так же доступны для публики, как ChatGPT, но, согласно ChatGPT, это лучшие альтернативы.

Рекомендуемые видео

Бинг от Майкрософт

Обновленная поисковая система Microsoft Bing.

Прежде чем перейти к выбору, перечисленному AI, лучшей альтернативой ChatGPT является ChatGPT. Microsoft недавно

добавил ИИ в свою поисковую систему Bing, и вскоре планируется развернуть эту функцию в браузере Edge.

Связанный

  • Производитель ChatGPT OpenAI столкнулся с расследованием FTC по поводу законов о защите прав потребителей
  • Рекордный рост ChatGPT был свергнут новым вирусным приложением
  • OpenAI создает новую команду, чтобы не дать суперинтеллектуальному ИИ выйти из-под контроля

Это только предварительная версия, но вы все равно можете попробовать нового чат-бота с искусственным интеллектом на bing.com/новый прямо сейчас. Microsoft говорит, что изначально ограничивает количество запросов, но вы можете присоединиться к списку ожидания Bing ChatGPT чтобы получить уведомление, когда будет доступна полная версия.

БЕРТ от Google

BERT (представления двунаправленного кодировщика от трансформаторов) — это модель машинного обучения, разработанная Google. Во многих результатах ChatGPT упоминаются проекты Google, которые вы увидите позже в этом списке.

BERT известен своими возможностями обработки естественного языка (NLP), такими как ответы на вопросы и анализ настроений. Он использует BookCorpus и английскую Википедию в качестве моделей для предварительной подготовки ссылок, изучив 800 миллионов и 2,5 миллиарда слов соответственно.

BERT был впервые анонсирован как исследовательский проект с открытым исходным кодом и академическая статья в октябре 2018 года. С тех пор эта технология была реализована в поиске Google. Ранняя литература о BERT сравните его с ChatGPT от OpenAI в ноябре 2018 года, отметив, что технология Google является глубоко двунаправленной, что помогает прогнозировать входящий текст. Между тем, OpenAI GPT является однонаправленным и может отвечать только на сложные запросы.

Мина от Google

Мина — это чат-бот, который Google представил в январе 2020 года со способностью разговаривать по-человечески. Примеры его функций включают простые разговоры, которые включают интересные шутки и каламбуры, например, Мина предлагает коровам изучать «науки о коровах» в Гарварде.

Пример чат-бота Google Meena.

В качестве прямой альтернативы OpenAI GPT-2 Meena могла обрабатывать в 8,5 раз больше данных, чем ее конкурент в то время. Его нейронная сеть включает 2,6 параметра и обучается на общедоступных разговорах в социальных сетях. Мина также получила 79% среднего показателя чувствительности и специфичности (SSA), что сделало его одним из самых интеллектуальных чат-ботов своего времени.

Код Мины доступен на Гитхаб.

Роберта на Facebook

РОБЕРТа (Надежно оптимизированный подход к предтренировке BERT) — это еще одна усовершенствованная версия оригинального BERT, которая Facebook объявил в июле 2019 года.

Фейсбук создал эту модель НЛП с большим источником данных в качестве модели предварительной подготовки. RoBERTa использует CommonCrawl (CC-News), который включает 63 миллиона новостных статей на английском языке, созданных в период с сентября 2016 года по февраль 2019 года, в качестве набора данных объемом 76 ГБ. Для сравнения, по данным Facebook, исходный BERT использует 16 ГБ данных между наборами данных английской Википедии и BookCorpus.

Silimar to XLNet, RoBERTa превзошел BERT в наборе эталонных наборов данных, согласно исследованию Facebook. Чтобы получить эти результаты, компания не только использовала более крупный источник данных, но и предварительно обучила свою модель для более длительный период времени.

Facebook сделал RoBERTa Открытый исходный код в сентябре 2019 года, и его код доступно на GitHub для общественных экспериментов.

VentureBeat также упомянул GPT-2 среди новых систем искусственного интеллекта того времени.

XLNet от Google

XLNET — это модель авторегрессионного языка на основе преобразователя, разработанная командой Google Brain и исследователи из Университета Карнеги-Меллона. По сути, эта модель представляет собой более продвинутый BERT и впервые была представлена ​​в июне 2019 года. Группа обнаружила, что XLNet, по крайней мере, на 16% эффективнее чем оригинальный BERT, о котором было объявлено в 2018 году, и он смог превзойти BERT в тесте из 20 задач НЛП.

XLNet: новый метод предварительной подготовки для NLP, который значительно превосходит BERT по 20 задачам (например, SQuAD, GLUE, RACE).

архив: https://t.co/C1tFMwZvyW

github (код + предварительно обученные модели): https://t.co/kI4jsVzT1u

с Жилином Яном, @ZihangDai, Имин Ян, Хайме Карбонелл, @rsalakhupic.twitter.com/JboOekUVPQ

— Куок Ле (@quocleix) 20 июня 2019 г.

Поскольку и XLNet, и BERT используют «замаскированные» токены для прогнозирования скрытого текста, XLNet повышает эффективность за счет ускорения прогнозирующей части процесса. Например, Амазон Алекса специалист по данным Айшвария Шринивасан объяснил что XLNet может идентифицировать слово «Новый» как связанное с термином «является городом», прежде чем предсказать, что термин «Йорк» также связан с этим термином. Между тем, BERT должен идентифицировать слова «Новый» и «Йорк» отдельно, а затем связать их, например, с термином «это город».

Примечательно, что GPT и GPT-2 также упоминается в этом объяснителе от 2019 года в качестве других примеров авторегрессионных языковых моделей.

Код XLNet и предварительно обученные модели доступно на GitHub. Модель хорошо известна в исследовательском сообществе НЛП.

DialoGPT от Microsoft Research

DialoGPT (предварительно обученный генеративный преобразователь диалогов) — это авторегрессивная языковая модель, которая был представлен в ноябре 2019 года по данным Microsoft Research. Подобно GPT-2, модель была предварительно обучена для создания человеческого разговора. Однако его основным источником информации были 147 миллионов многооборотных диалогов, извлеченных из тредов Reddit.

Примеры многооборотной генерации DiabloGPT.

Главный евангелист HumanFirst Кобус Грейлинг отметил его успех в реализации DialoGPT в службе обмена сообщениями Telegram, чтобы воплотить модель в жизнь в качестве чат-бота. Он добавил, что использование Amazon Web Services и Amazon SageMaker может помочь в тонкой настройке кода.

Код DialoGPT доступен на Гитхаб.

АЛЬБЕРТ от Google

АЛЬБЕРТ (облегченный БЕРТ) представляет собой усеченную версию оригинального BERT и был разработан Google в декабре 2019 года.

В ALBERT Google ограничил количество параметров, разрешенных в модели, введя параметры со «встраиванием скрытых слоев».

Производительность машины в тесте RACE (понимание прочитанного, похожем на SAT) от Google

Это улучшило не только модель BERT, но и XLNet и RoBERTa, потому что ALBERT можно обучать на тот же больший набор данных, используемый для двух более новых моделей, при соблюдении меньшего параметры. По сути, ALBERT работает только с параметрами, необходимыми для его функций, что повышает производительность и точность. Google уточнил, что обнаружил, что ALBERT превосходит BERT по 12 тестам NLP, включая тест на понимание прочитанного, подобный SAT.

Хотя имя GPT не упоминается, оно включено в изображение для ALBERT в исследовательском блоге Google.

Google выпустил ALBERT с открытым исходным кодом в январе 2020 года, и он был реализован поверх Google TensorFlow. Код доступен на Гитхаб.

T5 от Google

T5 (преобразователь преобразования текста в текст) — это модель НЛП. представлен Google в 2019 году, который заимствует множество предыдущих моделей, включая GPT, BERT, XLNet, RoBERTa и ALBERT, среди прочих. Он добавляет новый и уникальный набор данных называется Colossal Clean Crawled Corpus (C4), что позволяет преобразователю производить более качественные и контекстуальные результаты, чем другие наборы данных по сравнению с веб-скрапами Common Crawl, используемыми для XLNet.
Предварительное обучение Google T5 Text-To-Text Transfer Transformer.
Предварительное обучение T5 привело к созданию приложений для чат-ботов, в том числе InferKit Поговорите с Трансформером и Подземелье ИИ игра. Генераторы текста напоминают ChatGPT тем, что позволяют создавать реалистичные разговоры на основе того, что генерирует ИИ после ваших первоначальных подсказок или запросов.
Код T5 доступен на Гитхаб.

CTRL от Salesforce

CTRL от Salesforce (Computational Trust and Reasoning Layer) была одной из крупнейших общедоступных языковых моделей, когда она было объявлено в сентябре 2019 года компанией Salesforce. Языковая модель с 1,6 миллиардами параметров может использоваться для одновременного анализа больших объемов текста, например, связанных с веб-страницами. Некоторые потенциальные практические применения включают сопряжение с обзорами, рейтингами и атрибуциями.
Пример атрибуции источника Salesforce CTRL.
Языковая модель CTRL может различать до знаков препинания цель конкретного запроса. Salesforce отметил модель может уловить разницу между «Глобальное потепление — это ложь». как непопулярное мнение и «Глобальное потепление ложь» как теорию заговора из-за разницы периода в фразах и составить соответствующие темы Reddit для каждый.
CTRL-ссылки до 140 ГБ данных для его предварительной подготовки из источников, включая Wikipedia, Project Gutenberg, обзоры Amazon и Reddit. Он также ссылается на ряд международных новостных, информационных и викториновых ресурсов.
Код CTRL доступен на Гитхаб.

GShard от Google

GShard — это гигантская модель языкового перевода что Google представил в июне 2020 года с целью масштабирования нейронной сети. Модель включает 600 миллиардов параметров, что позволяет одновременно обучать большие наборы данных. GShard особенно хорошо разбирается в языковой перевод и обучение переводу со 100 языков на английский за четыре дня.

Blender от Facebook AI Research

Blender — это чат-бот с открытым исходным кодом, который был представлен в апрель 2020 г. Facebook AI Research. Было отмечено, что чат-бот имеет улучшенные разговорные навыки по сравнению с моделями-конкурентами, а также возможность предоставлять привлекать темы для разговора, слушать и показывать понимание своего партнера, а также демонстрировать сочувствие и индивидуальность.

Пример чат-бота Blender.

Blender сравнивают с чат-ботом Google Meena, который, в свою очередь, сравнивают с GPT-2 от OpenAI.

Код Blender доступен на Parl.ai.

Пегас от Google

Pegasus — это модель обработки естественного языка, которая была представлен Google в декабре 2019 года. Pegasus можно научить создавать сводки, и, как и другие модели, такие как BERT, GPT-2, RoBERTa, XLNet, ALBERT и T5, его можно точно настроить для конкретных задач. Pegasus был протестирован на эффективность в обобщении новостей, науки, историй, инструкций, электронных писем, патентов и законодательных актов по сравнению с людьми.

НЛП ПЕГАС сравнивают с человеком с точки зрения обобщающего качества.

Код Pegasus доступен на Гитхаб.

Рекомендации редакции

  • Google Bard теперь может говорить, но сможет ли он заглушить ChatGPT?
  • ChatGPT: последние новости, споры и советы, которые вам нужно знать
  • Посещаемость сайта ChatGPT впервые упала
  • Функция просмотра Bing в ChatGPT отключена из-за уязвимости платного доступа
  • Лучшие чат-боты с искусственным интеллектом: ChatGPT, Bard и другие