ЧатGPT быстро стал любимцем генеративного ИИ, но вряд ли он единственный игрок в игре. В дополнение к все остальные инструменты ИИ которые делают такие вещи, как генерация изображений, у ChatGPT также есть ряд прямых конкурентов — по крайней мере, я так предполагал.
Содержание
- Бинг от Майкрософт
- БЕРТ от Google
- Мина от Google
- Роберта на Facebook
- XLNet от Google
- DialoGPT от Microsoft Research
- АЛЬБЕРТ от Google
- T5 от Google
- CTRL от Salesforce
- GShard от Google
- Blender от Facebook AI Research
- Пегас от Google
Почему бы не спросить об этом ChatGPT? Это именно то, что я сделал, чтобы получить этот список, надеясь найти некоторые варианты для тех, сталкиваясь с уведомлениями о занятости, или другие, которые просто хотят попробовать что-то новое. Не все из них так же доступны для публики, как ChatGPT, но, согласно ChatGPT, это лучшие альтернативы.
Рекомендуемые видео
Бинг от Майкрософт
Прежде чем перейти к выбору, перечисленному AI, лучшей альтернативой ChatGPT является ChatGPT. Microsoft недавно
добавил ИИ в свою поисковую систему Bing, и вскоре планируется развернуть эту функцию в браузере Edge.Связанный
- Производитель ChatGPT OpenAI столкнулся с расследованием FTC по поводу законов о защите прав потребителей
- Рекордный рост ChatGPT был свергнут новым вирусным приложением
- OpenAI создает новую команду, чтобы не дать суперинтеллектуальному ИИ выйти из-под контроля
Это только предварительная версия, но вы все равно можете попробовать нового чат-бота с искусственным интеллектом на bing.com/новый прямо сейчас. Microsoft говорит, что изначально ограничивает количество запросов, но вы можете присоединиться к списку ожидания Bing ChatGPT чтобы получить уведомление, когда будет доступна полная версия.
БЕРТ от Google
BERT (представления двунаправленного кодировщика от трансформаторов) — это модель машинного обучения, разработанная Google. Во многих результатах ChatGPT упоминаются проекты Google, которые вы увидите позже в этом списке.
BERT известен своими возможностями обработки естественного языка (NLP), такими как ответы на вопросы и анализ настроений. Он использует BookCorpus и английскую Википедию в качестве моделей для предварительной подготовки ссылок, изучив 800 миллионов и 2,5 миллиарда слов соответственно.
BERT был впервые анонсирован как исследовательский проект с открытым исходным кодом и академическая статья в октябре 2018 года. С тех пор эта технология была реализована в поиске Google. Ранняя литература о BERT сравните его с ChatGPT от OpenAI в ноябре 2018 года, отметив, что технология Google является глубоко двунаправленной, что помогает прогнозировать входящий текст. Между тем, OpenAI GPT является однонаправленным и может отвечать только на сложные запросы.
Мина от Google
Мина — это чат-бот, который Google представил в январе 2020 года со способностью разговаривать по-человечески. Примеры его функций включают простые разговоры, которые включают интересные шутки и каламбуры, например, Мина предлагает коровам изучать «науки о коровах» в Гарварде.
В качестве прямой альтернативы OpenAI GPT-2 Meena могла обрабатывать в 8,5 раз больше данных, чем ее конкурент в то время. Его нейронная сеть включает 2,6 параметра и обучается на общедоступных разговорах в социальных сетях. Мина также получила 79% среднего показателя чувствительности и специфичности (SSA), что сделало его одним из самых интеллектуальных чат-ботов своего времени.
Код Мины доступен на Гитхаб.
Роберта на Facebook
РОБЕРТа (Надежно оптимизированный подход к предтренировке BERT) — это еще одна усовершенствованная версия оригинального BERT, которая Facebook объявил в июле 2019 года.
Фейсбук создал эту модель НЛП с большим источником данных в качестве модели предварительной подготовки. RoBERTa использует CommonCrawl (CC-News), который включает 63 миллиона новостных статей на английском языке, созданных в период с сентября 2016 года по февраль 2019 года, в качестве набора данных объемом 76 ГБ. Для сравнения, по данным Facebook, исходный BERT использует 16 ГБ данных между наборами данных английской Википедии и BookCorpus.
Silimar to XLNet, RoBERTa превзошел BERT в наборе эталонных наборов данных, согласно исследованию Facebook. Чтобы получить эти результаты, компания не только использовала более крупный источник данных, но и предварительно обучила свою модель для более длительный период времени.
Facebook сделал RoBERTa Открытый исходный код в сентябре 2019 года, и его код доступно на GitHub для общественных экспериментов.
VentureBeat также упомянул GPT-2 среди новых систем искусственного интеллекта того времени.
XLNet от Google
XLNET — это модель авторегрессионного языка на основе преобразователя, разработанная командой Google Brain и исследователи из Университета Карнеги-Меллона. По сути, эта модель представляет собой более продвинутый BERT и впервые была представлена в июне 2019 года. Группа обнаружила, что XLNet, по крайней мере, на 16% эффективнее чем оригинальный BERT, о котором было объявлено в 2018 году, и он смог превзойти BERT в тесте из 20 задач НЛП.
XLNet: новый метод предварительной подготовки для NLP, который значительно превосходит BERT по 20 задачам (например, SQuAD, GLUE, RACE).
архив: https://t.co/C1tFMwZvyW
github (код + предварительно обученные модели): https://t.co/kI4jsVzT1u
с Жилином Яном, @ZihangDai, Имин Ян, Хайме Карбонелл, @rsalakhupic.twitter.com/JboOekUVPQ
— Куок Ле (@quocleix) 20 июня 2019 г.
Поскольку и XLNet, и BERT используют «замаскированные» токены для прогнозирования скрытого текста, XLNet повышает эффективность за счет ускорения прогнозирующей части процесса. Например, Амазон Алекса специалист по данным Айшвария Шринивасан объяснил что XLNet может идентифицировать слово «Новый» как связанное с термином «является городом», прежде чем предсказать, что термин «Йорк» также связан с этим термином. Между тем, BERT должен идентифицировать слова «Новый» и «Йорк» отдельно, а затем связать их, например, с термином «это город».
Примечательно, что GPT и GPT-2 также упоминается в этом объяснителе от 2019 года в качестве других примеров авторегрессионных языковых моделей.
Код XLNet и предварительно обученные модели доступно на GitHub. Модель хорошо известна в исследовательском сообществе НЛП.
DialoGPT от Microsoft Research
DialoGPT (предварительно обученный генеративный преобразователь диалогов) — это авторегрессивная языковая модель, которая был представлен в ноябре 2019 года по данным Microsoft Research. Подобно GPT-2, модель была предварительно обучена для создания человеческого разговора. Однако его основным источником информации были 147 миллионов многооборотных диалогов, извлеченных из тредов Reddit.
Главный евангелист HumanFirst Кобус Грейлинг отметил его успех в реализации DialoGPT в службе обмена сообщениями Telegram, чтобы воплотить модель в жизнь в качестве чат-бота. Он добавил, что использование Amazon Web Services и Amazon SageMaker может помочь в тонкой настройке кода.
Код DialoGPT доступен на Гитхаб.
АЛЬБЕРТ от Google
АЛЬБЕРТ (облегченный БЕРТ) представляет собой усеченную версию оригинального BERT и был разработан Google в декабре 2019 года.
В ALBERT Google ограничил количество параметров, разрешенных в модели, введя параметры со «встраиванием скрытых слоев».
Это улучшило не только модель BERT, но и XLNet и RoBERTa, потому что ALBERT можно обучать на тот же больший набор данных, используемый для двух более новых моделей, при соблюдении меньшего параметры. По сути, ALBERT работает только с параметрами, необходимыми для его функций, что повышает производительность и точность. Google уточнил, что обнаружил, что ALBERT превосходит BERT по 12 тестам NLP, включая тест на понимание прочитанного, подобный SAT.
Хотя имя GPT не упоминается, оно включено в изображение для ALBERT в исследовательском блоге Google.
Google выпустил ALBERT с открытым исходным кодом в январе 2020 года, и он был реализован поверх Google TensorFlow. Код доступен на Гитхаб.
T5 от Google
CTRL от Salesforce
GShard от Google
GShard — это гигантская модель языкового перевода что Google представил в июне 2020 года с целью масштабирования нейронной сети. Модель включает 600 миллиардов параметров, что позволяет одновременно обучать большие наборы данных. GShard особенно хорошо разбирается в языковой перевод и обучение переводу со 100 языков на английский за четыре дня.
Blender от Facebook AI Research
Blender — это чат-бот с открытым исходным кодом, который был представлен в апрель 2020 г. Facebook AI Research. Было отмечено, что чат-бот имеет улучшенные разговорные навыки по сравнению с моделями-конкурентами, а также возможность предоставлять привлекать темы для разговора, слушать и показывать понимание своего партнера, а также демонстрировать сочувствие и индивидуальность.
Blender сравнивают с чат-ботом Google Meena, который, в свою очередь, сравнивают с GPT-2 от OpenAI.
Код Blender доступен на Parl.ai.
Пегас от Google
Pegasus — это модель обработки естественного языка, которая была представлен Google в декабре 2019 года. Pegasus можно научить создавать сводки, и, как и другие модели, такие как BERT, GPT-2, RoBERTa, XLNet, ALBERT и T5, его можно точно настроить для конкретных задач. Pegasus был протестирован на эффективность в обобщении новостей, науки, историй, инструкций, электронных писем, патентов и законодательных актов по сравнению с людьми.
Код Pegasus доступен на Гитхаб.
Рекомендации редакции
- Google Bard теперь может говорить, но сможет ли он заглушить ChatGPT?
- ChatGPT: последние новости, споры и советы, которые вам нужно знать
- Посещаемость сайта ChatGPT впервые упала
- Функция просмотра Bing в ChatGPT отключена из-за уязвимости платного доступа
- Лучшие чат-боты с искусственным интеллектом: ChatGPT, Bard и другие