チャットGPT はすぐに生成 AI の最愛の人になりましたが、ゲームの唯一のプレーヤーというわけではありません。 に加えて 世の中にある他のすべての AI ツール 画像生成などを行うものであると同時に、ChatGPT との直接の競合他社も多数存在します。私はそう思っていました。
コンテンツ
- Microsoft の Bing
- Google の BERT
- ミーナ by Google
- ロベルタ by Facebook
- Google の XLNet
- Microsoft Research による DialoGPT
- アルバート by Google
- T5 by Google
- SalesforceによるCTRL
- GoogleのGShard
- Facebook AI Research によるブレンダー
- Googleのペガサス
ChatGPT に問い合わせてみてはいかがでしょうか? それはまさに私がこのリストを取得するために行ったことであり、それらのオプションを見つけることを望んでいた 「定員に達している」という通知に直面している、または単に何か新しいことに挑戦したい人もいます。 これらのすべてが ChatGPT ほど一般にアクセスできるわけではありませんが、ChatGPT によれば、これらは最良の代替手段です。
おすすめ動画
Microsoft の Bing
AI によってリストされた選択肢に入る前に、ChatGPT に代わる最良の選択肢は、ChatGPT です。 最近のマイクロソフト AI を Bing 検索エンジンに追加しましたであり、間もなくこの機能を Edge ブラウザに展開する予定です。
関連している
- ChatGPTメーカーのOpenAIは消費者保護法を巡りFTCの捜査に直面している
- ChatGPT の記録的な成長は、新しいバイラル アプリによって奪われたばかりです
- OpenAI、超インテリジェント AI の暴走を阻止するための新しいチームを構築
まだプレビュー段階ですが、新しい AI チャットボットをまだ試すことができます。 bing.com/新しい たった今。 Microsoft は、最初はクエリの数を制限していると言っていますが、制限することはできます Bing ChatGPT 待機リストに参加する 完全版が利用可能になったときに通知が届きます。
Google の BERT
BERT (Bidirectional Encoder Representations from Transformers) は、Google によって開発された機械学習モデルです。 ChatGPT の結果の多くは、このリストの後半で説明する Google によるプロジェクトについて言及しています。
BERT は、質問応答や感情分析などの自然言語処理 (NLP) 機能で知られています。 BookCorpus と英語版 Wikipedia を事前トレーニング参照のモデルとして使用しており、それぞれ 8 億語と 25 億語を学習しています。
BERT は最初に オープンソース研究プロジェクト と 学術論文 2018年10月に。 その後、このテクノロジーは Google 検索に実装されました。 初期の文学 BERT については、2018 年 11 月に OpenAI の ChatGPT と比較し、Google のテクノロジーは高度な双方向性を備えており、受信テキストの予測に役立つと指摘しました。 一方、OpenAI GPT は一方向であり、複雑なクエリにのみ応答できます。
ミーナ by Google
Meena はチャットボットです。 Googleが導入 2020 年 1 月に人間らしい会話ができるようになりました。 その機能の例には、ミーナが牛にハーバード大学で「牛の科学」を学ぶよう勧めるなど、興味深いジョークやダジャレを含む簡単な会話が含まれます。
OpenAI の GPT-2 の直接の代替品として、Meena は当時の競合他社の 8.5 倍のデータを処理する能力を持っていました。 そのニューラル ネットワークは 2.6 個のパラメータで構成され、パブリック ドメインのソーシャル メディアでの会話でトレーニングされています。 Meena はまた、Sensibleness and Specificity Average (SSA) の指標スコアも 79% を獲得しており、当時最もインテリジェントなチャットボットの 1 つとなりました。
Meena コードは次の場所で入手できます。 GitHub.
ロベルタ by Facebook
ロベルタ (堅牢に最適化された BERT 事前トレーニング アプローチ) は、元の BERT のもう 1 つの高度なバージョンです。 フェイスブックが発表 2019年7月に。
フェイスブック は、事前トレーニング モデルとして大規模なデータ ソースを使用して、この NLP モデルを作成しました。 RoBERTa は、2016 年 9 月から 2019 年 2 月までに生成された 6,300 万件の英語ニュース記事を 76 GB のデータセットとして含む CommonCrawl (CC-News) を使用しています。 Facebookによると、これと比較して、オリジナルのBERTは英語版WikipediaとBookCorpusのデータセット間で16GBのデータを使用しているという。
Facebook の調査によると、XLNet と同様に、RoBERTa は一連のベンチマーク データ セットで BERT を上回りました。 これらの結果を得るために、同社はより大規模なデータ ソースを使用しただけでなく、モデルを事前トレーニングしました。 より長い期間.
FacebookがRoBERTaを作った オープンソース 2019 年 9 月に作成され、そのコードは GitHub で入手可能 コミュニティ実験用。
ベンチャービート また、当時新たに登場した AI システムの中で GPT-2 についても言及しました。
Google の XLNet
XLNET は、次のチームによって開発されたトランスフォーマーベースの自己回帰言語モデルです。 Google Brain とカーネギーメロン大学の研究者. このモデルは本質的にはより高度な BERT であり、2019 年 6 月に初めて披露されました。 同グループは、XLNet が少なくとも 効率が 16% 向上 2018 年に発表されたオリジナルの BERT よりも優れており、20 個の NLP タスクのテストで BERT を上回ることができました。
XLNet: 20 のタスク (SQuAD、GLUE、RACE など) で BERT を大幅に改善する NLP の新しい事前トレーニング方法
arxiv: https://t.co/C1tFMwZvyW
github (コード + 事前トレーニング済みモデル): https://t.co/kI4jsVzT1u
楊志林氏と @ZihangDai、イーミン・ヤン、ハイメ・カーボネル、 @rsalakhupic.twitter.com/JboOekUVPQ
— クオック・ル (@quocleix) 2019年6月20日
XLNet と BERT の両方が「マスクされた」トークンを使用して隠しテキストを予測するため、XLNet はプロセスの予測部分を高速化することで効率を向上させます。 たとえば、アマゾン アレクサ データサイエンティスト、アイシュワリヤ・スリニバサン 説明した XLNet は、「York」という用語もその用語に関連付けられていると予測する前に、「New」という用語が「is a city」という用語に関連付けられているものとして識別できるということです。 一方、BERT は、「New」と「York」という単語を個別に識別し、それらを、たとえば「都市である」という用語に関連付ける必要があります。
特に、GPT と GPT-2 は も言及されました 2019 年のこの説明では、自己回帰言語モデルの他の例として説明されています。
XLNet コードと事前トレーニングされたモデルは、 GitHub で入手可能. このモデルは NLP 研究コミュニティの間ではよく知られています。
Microsoft Research による DialoGPT
DialoGPT (Dialogue Generative Pre-trained Transformer) は、自己回帰言語モデルです。 導入されました 2019 年 11 月、Microsoft Research による。 GPT-2 との類似点により、このモデルは人間のような会話を生成するように事前トレーニングされています。 ただし、主な情報源は Reddit のスレッドから収集された 1 億 4,700 万のマルチターン対話です。
HumanFirst のチーフエバンジェリスト、コーバス・グレイリング氏は次のように述べています。 DialoGPT を Telegram メッセージング サービスに実装して、モデルをチャットボットとして実現することに成功しました。 同氏は、Amazon Web Services と Amazon SageMaker を使用するとコードの微調整に役立つと付け加えました。
DialoGPT コードは次の場所で入手できます。 GitHub.
アルバート by Google
アルバート (ライトバート) これはオリジナルの BERT の短縮バージョンであり、2019 年 12 月に Google によって開発されました。
ALBERT では、Google は「隠れ層埋め込み」を使用したパラメータを導入することで、モデル内で許可されるパラメータの数を制限しました。
ALBERT は BERT モデルでトレーニングできるため、これは BERT モデルだけでなく XLNet と RoBERTa でも改善されました。 より小規模な情報を遵守しながら、2 つの新しいモデルに使用される同じより大きな情報のデータセット パラメーター。 基本的に、ALBERT はその機能に必要なパラメーターのみを操作するため、パフォーマンスと精度が向上します。 Google は、SAT のような読解ベンチマークを含む 12 の NLP ベンチマークで ALBERT が BERT を上回っていることが判明したと詳細に説明しました。
名前は言及されていませんが、GPT は Google の Research ブログの ALBERT の画像に含まれています。
Google は 2020 年 1 月に ALBERT をオープンソースとしてリリースし、Google の TensorFlow 上に実装されました。 コードは次の場所で入手できます GitHub.
T5 by Google
SalesforceによるCTRL
GoogleのGShard
Gシャードは、 巨大な言語翻訳モデル それか Googleが導入 ニューラル ネットワークのスケーリングを目的として、2020 年 6 月に設立されました。 モデルには 6,000 億個のパラメーターが含まれており、一度に大規模なデータ セットをトレーニングできます。 GShard が特に得意とするのは、 言語翻訳 4日間で100の言語を英語に翻訳する訓練を受けています。
Facebook AI Research によるブレンダー
Blender は、で導入されたオープンソースのチャットボットです。 2020年4月 Facebook AI Researchによる。 チャットボットは、競合他社のモデルよりも会話スキルが向上していることが注目されており、次のような機能を提供します。 魅力的な話のポイントを話し、パートナーの意見に耳を傾けて理解を示し、共感と個性を示します。
Blender は Google の Meena チャットボットと比較され、Meena チャットボットは OpenAI の GPT-2 と比較されます。
Blender コードは次の場所で入手できます。 パールアイ.
Googleのペガサス
Pegasus は、 Googleが紹介した 2019年12月に。 Pegasus は概要を作成するようにトレーニングでき、BERT、GPT-2、RoBERTa、XLNet、ALBERT、T5 などの他のモデルと同様に、特定のタスクに合わせて微調整できます。 Pegasus は、人間の被験者と比較して、ニュース、科学、記事、説明書、電子メール、特許、法案の要約における効率性がテストされています。
ペガサス コードは次の場所で入手できます。 GitHub.
編集者のおすすめ
- Google Bard は話せるようになりましたが、ChatGPT をかき消すことができるでしょうか?
- ChatGPT: 最新のニュース、論争、知っておくべきヒント
- ChatGPT Webサイトのトラフィックが初めて減少
- ChatGPT の Bing ブラウジング機能がペイウォール アクセスの欠陥により無効になる
- 試してみるのに最適な AI チャットボット: ChatGPT、Bard など