ChatGPT の最良の代替案 (ChatGPT による)

チャットGPT はすぐに生成 AI の最愛の人になりましたが、ゲームの唯一のプレーヤーというわけではありません。 に加えて 世の中にある他のすべての AI ツール 画像生成などを行うものであると同時に、ChatGPT との直接の競合他社も多数存在します。私はそう思っていました。

コンテンツ

  • Microsoft の Bing
  • Google の BERT
  • ミーナ by Google
  • ロベルタ by Facebook
  • Google の XLNet
  • Microsoft Research による DialoGPT
  • アルバート by Google
  • T5 by Google
  • SalesforceによるCTRL
  • GoogleのGShard
  • Facebook AI Research によるブレンダー
  • Googleのペガサス

ChatGPT に問い合わせてみてはいかがでしょうか? それはまさに私がこのリストを取得するために行ったことであり、それらのオプションを見つけることを望んでいた 「定員に達している」という通知に直面している、または単に何か新しいことに挑戦したい人もいます。 これらのすべてが ChatGPT ほど一般にアクセスできるわけではありませんが、ChatGPT によれば、これらは最良の代替手段です。

おすすめ動画

Microsoft の Bing

Microsoft が再設計した Bing 検索エンジン。

AI によってリストされた選択肢に入る前に、ChatGPT に代わる最良の選択肢は、ChatGPT です。 最近のマイクロソフト AI を Bing 検索エンジンに追加しましたであり、間もなくこの機能を Edge ブラウザに展開する予定です。

関連している

  • ChatGPTメーカーのOpenAIは消費者保護法を巡りFTCの捜査に直面している
  • ChatGPT の記録的な成長は、新しいバイラル アプリによって奪われたばかりです
  • OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築

まだプレビュー段階ですが、新しい AI チャットボットをまだ試すことができます。 bing.com/新しい たった今。 Microsoft は、最初はクエリの数を制限していると言っていますが、制限することはできます Bing ChatGPT 待機リストに参加する 完全版が利用可能になったときに通知が届きます。

Google の BERT

BERT (Bidirectional Encoder Representations from Transformers) は、Google によって開発された機械学習モデルです。 ChatGPT の結果の多くは、このリストの後半で説明する Google によるプロジェクトについて言及しています。

BERT は、質問応答や感情分析などの自然言語処理 (NLP) 機能で知られています。 BookCorpus と英語版 Wikipedia を事前トレーニング参照のモデルとして使用しており、それぞれ 8 億語と 25 億語を学習しています。

BERT は最初に オープンソース研究プロジェクト学術論文 2018年10月に。 その後、このテクノロジーは Google 検索に実装されました。 初期の文学 BERT については、2018 年 11 月に OpenAI の ChatGPT と比較し、Google のテクノロジーは高度な双方向性を備えており、受信テキストの予測に役立つと指摘しました。 一方、OpenAI GPT は一方向であり、複雑なクエリにのみ応答できます。

ミーナ by Google

Meena はチャットボットです。 Googleが導入 2020 年 1 月に人間らしい会話ができるようになりました。 その機能の例には、ミーナが牛にハーバード大学で「牛の科学」を学ぶよう勧めるなど、興味深いジョークやダジャレを含む簡単な会話が含まれます。

Google Meena チャットボットの例。

OpenAI の GPT-2 の直接の代替品として、Meena は当時の競合他社の 8.5 倍のデータを処理する能力を持っていました。 そのニューラル ネットワークは 2.6 個のパラメータで構成され、パブリック ドメインのソーシャル メディアでの会話でトレーニングされています。 Meena はまた、Sensibleness and Specificity Average (SSA) の指標スコアも 79% を獲得しており、当時最もインテリジェントなチャットボットの 1 つとなりました。

Meena コードは次の場所で入手できます。 GitHub.

ロベルタ by Facebook

ロベルタ (堅牢に最適化された BERT 事前トレーニング アプローチ) は、元の BERT のもう 1 つの高度なバージョンです。 フェイスブックが発表 2019年7月に。

フェイスブック は、事前トレーニング モデルとして大規模なデータ ソースを使用して、この NLP モデルを作成しました。 RoBERTa は、2016 年 9 月から 2019 年 2 月までに生成された 6,300 万件の英語ニュース記事を 76 GB のデータセットとして含む CommonCrawl (CC-News) を使用しています。 Facebookによると、これと比較して、オリジナルのBERTは英語版WikipediaとBookCorpusのデータセット間で16GBのデータを使用しているという。

Facebook の調査によると、XLNet と同様に、RoBERTa は一連のベンチマーク データ セットで BERT を上回りました。 これらの結果を得るために、同社はより大規模なデータ ソースを使用しただけでなく、モデルを事前トレーニングしました。 より長い期間.

FacebookがRoBERTaを作った オープンソース 2019 年 9 月に作成され、そのコードは GitHub で入手可能 コミュニティ実験用。

ベンチャービート また、当時新たに登場した AI システムの中で GPT-2 についても言及しました。

Google の XLNet

XLNET は、次のチームによって開発されたトランスフォーマーベースの自己回帰言語モデルです。 Google Brain とカーネギーメロン大学の研究者. このモデルは本質的にはより高度な BERT であり、2019 年 6 月に初めて披露されました。 同グループは、XLNet が少なくとも 効率が 16% 向上 2018 年に発表されたオリジナルの BERT よりも優れており、20 個の NLP タスクのテストで BERT を上回ることができました。

XLNet: 20 のタスク (SQuAD、GLUE、RACE など) で BERT を大幅に改善する NLP の新しい事前トレーニング方法

arxiv: https://t.co/C1tFMwZvyW

github (コード + 事前トレーニング済みモデル): https://t.co/kI4jsVzT1u

楊志林氏と @ZihangDai、イーミン・ヤン、ハイメ・カーボネル、 @rsalakhupic.twitter.com/JboOekUVPQ

— クオック・ル (@quocleix) 2019年6月20日

XLNet と BERT の両方が「マスクされた」トークンを使用して隠しテキストを予測するため、XLNet はプロセスの予測部分を高速化することで効率を向上させます。 たとえば、アマゾン アレクサ データサイエンティスト、アイシュワリヤ・スリニバサン 説明した XLNet は、「York」という用語もその用語に関連付けられていると予測する前に、「New」という用語が「is a city」という用語に関連付けられているものとして識別できるということです。 一方、BERT は、「New」と「York」という単語を個別に識別し、それらを、たとえば「都市である」という用語に関連付ける必要があります。

特に、GPT と GPT-2 は も言及されました 2019 年のこの説明では、自己回帰言語モデルの他の例として説明されています。

XLNet コードと事前トレーニングされたモデルは、 GitHub で入手可能. このモデルは NLP 研究コミュニティの間ではよく知られています。

Microsoft Research による DialoGPT

DialoGPT (Dialogue Generative Pre-trained Transformer) は、自己回帰言語モデルです。 導入されました 2019 年 11 月、Microsoft Research による。 GPT-2 との類似点により、このモデルは人間のような会話を生成するように事前トレーニングされています。 ただし、主な情報源は Reddit のスレッドから収集された 1 億 4,700 万のマルチターン対話です。

DiabloGPT のマルチターン生成例。

HumanFirst のチーフエバンジェリスト、コーバス・グレイリング氏は次のように述べています。 DialoGPT を Telegram メッセージング サービスに実装して、モデルをチャットボットとして実現することに成功しました。 同氏は、Amazon Web Services と Amazon SageMaker を使用するとコードの微調整に役立つと付け加えました。

DialoGPT コードは次の場所で入手できます。 GitHub.

アルバート by Google

アルバート (ライトバート) これはオリジナルの BERT の短縮バージョンであり、2019 年 12 月に Google によって開発されました。

ALBERT では、Google は「隠れ層埋め込み」を使用したパラメータを導入することで、モデル内で許可されるパラメータの数を制限しました。

Google による RACE チャレンジ (SAT のような読解) におけるマシンのパフォーマンス

ALBERT は BERT モデルでトレーニングできるため、これは BERT モデルだけでなく XLNet と RoBERTa でも改善されました。 より小規模な情報を遵守しながら、2 つの新しいモデルに使用される同じより大きな情報のデータセット パラメーター。 基本的に、ALBERT はその機能に必要なパラメーターのみを操作するため、パフォーマンスと精度が向上します。 Google は、SAT のような読解ベンチマークを含む 12 の NLP ベンチマークで ALBERT が BERT を上回っていることが判明したと詳細に説明しました。

名前は言及されていませんが、GPT は Google の Research ブログの ALBERT の画像に含まれています。

Google は 2020 年 1 月に ALBERT をオープンソースとしてリリースし、Google の TensorFlow 上に実装されました。 コードは次の場所で入手できます GitHub.

T5 by Google

T5 (Text-to-Text Transfer Transformer) は NLP モデルです Googleが紹介した 2019 年には、GPT、BERT、XLNet、RoBERTa、ALBERT などの多数の以前のモデルから借用されました。 それは追加します 新しくてユニークなデータセット Colossal Clean Crawled Corpus (C4) と呼ばれるもので、トランスフォーマーがより高品質のデータを生成できるようになります。 他のデータ セットよりもコンテキストに応じた結果を、Web スクレイピングに使用される Common Crawl Web スクレイピングと比較して確認できます。 XLネット。
Google T5 Text-To-Text Transfer Transformer の事前トレーニング。
T5 の事前トレーニングにより、次のようなチャットボット アプリケーションが作成されました。 InferKit とトランスフォーマーの会話 そしてその AIダンジョン ゲーム。 テキスト ジェネレーターは、最初のプロンプトやクエリの後に AI が生成した内容に基づいて現実的な会話を生成できるという点で ChatGPT に似ています。
T5 コードは次の場所で入手できます。 GitHub.

SalesforceによるCTRL

Salesforce の CTRL (Computational Trust and Reasoning Layer) は、当時、公開されていた最大の言語モデルの 1 つでした。 発表されました 2019 年 9 月に Salesforce によって発表されました。 16 億パラメータの言語モデルを使用すると、Web ページに関連付けられたテキストなど、大量のテキストを一度に分析できます。 実用的な用途としては、レビュー、評価、帰属との組み合わせが挙げられます。
Salesforce CTRL ソース帰属の例。
CTRL 言語モデルは、特定のクエリの意図を句読点に至るまで区別できます。 Salesforce は指摘 このモデルは、「地球温暖化は嘘である」との違いを認識できます。 不人気な意見として、「地球温暖化は 「嘘」をフレーズの時代の違いから陰謀論として扱い、対応するRedditスレッドを起草する 各。
CTRL 参照 Wikipedia、Project Gutenberg、Amazon レビュー、Reddit などのソースからの事前トレーニング用の最大 140 GB のデータ。 また、多くの国際的なニュース、情報、雑学リソースも参照しています。
CTRL コードは次の場所で入手できます。 GitHub.

GoogleのGShard

Gシャードは、 巨大な言語翻訳モデル それか Googleが導入 ニューラル ネットワークのスケーリングを目的として、2020 年 6 月に設立されました。 モデルには 6,000 億個のパラメーターが含まれており、一度に大規模なデータ セットをトレーニングできます。 GShard が特に得意とするのは、 言語翻訳 4日間で100の言語を英語に翻訳する訓練を受けています。

Facebook AI Research によるブレンダー

Blender は、で導入されたオープンソースのチャットボットです。 2020年4月 Facebook AI Researchによる。 チャットボットは、競合他社のモデルよりも会話スキルが向上していることが注目されており、次のような機能を提供します。 魅力的な話のポイントを話し、パートナーの意見に耳を傾けて理解を示し、共感と個性を示します。

Blender チャットボットの例。

Blender は Google の Meena チャットボットと比較され、Meena チャットボットは OpenAI の GPT-2 と比較されます。

Blender コードは次の場所で入手できます。 パールアイ.

Googleのペガサス

Pegasus は、 Googleが紹介した 2019年12月に。 Pegasus は概要を作成するようにトレーニングでき、BERT、GPT-2、RoBERTa、XLNet、ALBERT、T5 などの他のモデルと同様に、特定のタスクに合わせて微調整できます。 Pegasus は、人間の被験者と比較して、ニュース、科学、記事、説明書、電子メール、特許、法案の要約における効率性がテストされています。

PEGASUS NLP は、要約の品質という点で人間に例えられます。

ペガサス コードは次の場所で入手できます。 GitHub.

編集者のおすすめ

  • Google Bard は話せるようになりましたが、ChatGPT をかき消すことができるでしょうか?
  • ChatGPT: 最新のニュース、論争、知っておくべきヒント
  • ChatGPT Webサイトのトラフィックが初めて減少
  • ChatGPT の Bing ブラウジング機能がペイウォール アクセスの欠陥により無効になる
  • 試してみるのに最適な AI チャットボット: ChatGPT、Bard など