أفضل بدائل ChatGPT (وفقًا لـ ChatGPT)

الدردشة سرعان ما أصبح محبوب الذكاء الاصطناعي التوليدي ، لكنه ليس اللاعب الوحيد في اللعبة. بالإضافة إلى جميع أدوات الذكاء الاصطناعي الأخرى المتوفرة الذين يقومون بأشياء مثل إنشاء الصور ، هناك أيضًا عدد من المنافسين المباشرين مع ChatGPT - أو هكذا افترضت.

محتويات

  • بنج من مايكروسوفت
  • BERT من Google
  • مينا من جوجل
  • RoBERTa بواسطة Facebook
  • XLNet من Google
  • DialoGPT بواسطة Microsoft Research
  • ALBERT من Google
  • T5 من جوجل
  • CTRL بواسطة Salesforce
  • GShard من Google
  • خلاط بواسطة Facebook AI Research
  • بيغاسوس من جوجل

لماذا لا تسأل ChatGPT عنها؟ هذا هو بالضبط ما فعلته للحصول على هذه القائمة ، على أمل العثور على بعض الخيارات لهم تواجه إشعارات "السعة"، أو الآخرين الذين يريدون فقط تجربة شيء جديد. ليست كل هذه الأشياء متاحة للجمهور مثل ChatGPT ، ولكن وفقًا لـ ChatGPT ، فهذه هي أفضل البدائل.

مقاطع الفيديو الموصى بها

بنج من مايكروسوفت

محرك بحث Bing المعاد تصميمه من Microsoft.

قبل الدخول في الاختيارات المدرجة بواسطة AI ، فإن أفضل بديل لـ ChatGPT هو ، حسنًا ، ChatGPT. مايكروسوفت مؤخرا أضاف AI إلى محرك بحث Bing الخاص به، وتخطط لطرح الميزة في متصفح Edge قريبًا.

متعلق ب

  • يواجه OpenAI صانع ChatGPT تحقيق لجنة التجارة الفيدرالية بشأن قوانين حماية المستهلك
  • تم التخلص من النمو القياسي في ChatGPT من خلال تطبيق فيروسي جديد
  • أوبن إيه آي يبني فريقًا جديدًا لمنع الذكاء الاصطناعي الخارق من الانزلاق إلى المارقة

إنها فقط في المعاينة ، ولكن لا يزال بإمكانك تجربة روبوت الدردشة الجديد AI على bing.com/new الآن. تقول Microsoft إنها تحد من عدد الاستعلامات في البداية ، لكن يمكنك ذلك انضم إلى قائمة انتظار Bing ChatGPT ليتم إعلامك عند توفر النسخة الكاملة.

BERT من Google

BERT (تمثيلات التشفير ثنائية الاتجاه من المحولات) هو نموذج للتعلم الآلي طورته Google. ذكرت الكثير من نتائج ChatGPT مشاريع من قبل Google ، والتي ستراها لاحقًا في هذه القائمة.

تشتهر BERT بقدراتها في معالجة اللغة الطبيعية (NLP) ، مثل الإجابة على الأسئلة وتحليل المشاعر. وهي تستخدم BookCorpus و English Wikipedia كنماذج لها لمراجع ما قبل التدريب ، بعد أن تعلمت 800 مليون و 2.5 مليار كلمة على التوالي.

تم الإعلان عن BERT لأول مرة باعتباره مشروع بحثي مفتوح المصدر و ورقة الأكاديمية في أكتوبر 2018. تم تطبيق هذه التقنية منذ ذلك الحين في بحث Google. الأدب المبكر حول BERT قارنها بـ ChatGPT من OpenAI في نوفمبر 2018 ، مع ملاحظة أن تقنية Google ثنائية الاتجاه عميقة ، مما يساعد في التنبؤ بالنص الوارد. وفي الوقت نفسه ، يعد OpenAI GPT أحادي الاتجاه ولا يمكنه الرد إلا على الاستفسارات المعقدة.

مينا من جوجل

مينا هو روبوت محادثة قدم جوجل في يناير 2020 مع القدرة على التحدث بطريقة إنسانية. تتضمن أمثلة وظائفها المحادثات البسيطة التي تتضمن النكات والتورية الشيقة ، مثل مينا الذي يقترح أن تدرس الأبقار "علوم الأبقار" في جامعة هارفارد.

مثال على chatbot Google Meena.

كبديل مباشر لـ GPT-2 الخاص بـ OpenAI ، كان لدى Meena القدرة على معالجة 8.5 أضعاف البيانات التي يعالجها منافسها في ذلك الوقت. تتكون شبكتها العصبية من 2.6 معلمة ويتم تدريبها على محادثات الوسائط الاجتماعية العامة. حصلت Meena أيضًا على درجة مترية في معدل الحساسية والنوعية (SSA) بنسبة 79٪ ، مما يجعلها واحدة من أكثر روبوتات المحادثة ذكاءً في وقتها.

كود مينا متاح في جيثب.

RoBERTa بواسطة Facebook

روبرتا (نهج BERT المحسن بشكل قوي) هو إصدار متقدم آخر من BERT الأصلي ، والذي أعلن الفيسبوك في يوليو 2019.

فيسبوك أنشأ نموذج البرمجة اللغوية العصبية هذا بمصدر أكبر للبيانات كنموذج ما قبل التدريب. تستخدم RoBERTa برنامج CommonCrawl (CC-News) ، والذي يتضمن 63 مليون مقالة إخبارية باللغة الإنجليزية تم إنشاؤها بين سبتمبر 2016 وفبراير 2019 ، كمجموعة بيانات 76 جيجا بايت. بالمقارنة ، يستخدم BERT الأصلي 16 جيجا بايت من البيانات بين مجموعات بيانات Wikipedia الإنجليزية و BookCorpus ، وفقًا لـ Facebook.

Silimar إلى XLNet ، فازت RoBERTa على BERT في مجموعة من مجموعات البيانات المعيارية ، وفقًا لأبحاث Facebook. للحصول على هذه النتائج ، لم تستخدم الشركة مصدر بيانات أكبر فحسب ، بل قامت أيضًا بتدريس نموذجها مسبقًا لملف فترة زمنية أطول.

صنع Facebook RoBERTa مفتوح المصدر في سبتمبر 2019 ، ورمزها هو متاح على جيثب لتجريب المجتمع.

VentureBeat ذكر أيضًا GPT-2 بين أنظمة الذكاء الاصطناعي الناشئة خلال ذلك الوقت.

XLNet من Google

XLNET هو نموذج لغة ارتداد تلقائي قائم على المحولات تم تطويره بواسطة فريق من جوجل برين وباحثو جامعة كارنيجي ميلون. النموذج هو في الأساس BERT أكثر تقدمًا وتم عرضه لأول مرة في يونيو 2019. وجدت المجموعة أن XLNet هي على الأقل 16٪ أكثر كفاءة من BERT الأصلي ، الذي تم الإعلان عنه في 2018 ، مع قدرته على التغلب على BERT في اختبار لـ 20 مهمة من مهام البرمجة اللغوية العصبية.

XLNet: طريقة جديدة للتدريب المسبق لـ NLP تحسن بشكل كبير من BERT في 20 مهمة (على سبيل المثال ، SQuAD ، GLUE ، RACE)

arxiv: https://t.co/C1tFMwZvyW

جيثب (كود + نماذج مسبقة الصنع): https://t.co/kI4jsVzT1u

مع Zhilin Yang ، تضمين التغريدة، ييمينغ يانغ ، خايمي كاربونيل ، تضمين التغريدةpic.twitter.com/JboOekUVPQ

- Quoc Le (quocleix) 20 يونيو 2019

باستخدام كل من XLNet و BERT الرموز المميزة "المقنعة" للتنبؤ بالنص المخفي ، تعمل XLNet على تحسين الكفاءة عن طريق تسريع الجزء التنبئي من العملية. على سبيل المثال ، أمازون أليكسا عالم البيانات ايشواريا سرينيفاسان شرح أن XLNet قادرة على تحديد كلمة "جديد" باعتبارها مرتبطة بمصطلح "هي مدينة" قبل التنبؤ بمصطلح "يورك" باعتباره أيضًا مرتبطًا بهذا المصطلح. وفي الوقت نفسه ، يحتاج BERT إلى تحديد الكلمتين "جديد" و "يورك" بشكل منفصل ثم ربطهما بمصطلح "هي مدينة" ، على سبيل المثال.

والجدير بالذكر أن GPT و GPT-2 هما المذكورة أيضا في هذا الشرح من عام 2019 كأمثلة أخرى لنماذج اللغة الانحدار الذاتي.

كود XLNet والنماذج المدربة مسبقًا هي متاح على جيثب. النموذج معروف بين مجتمع أبحاث البرمجة اللغوية العصبية.

DialoGPT بواسطة Microsoft Research

إن DialoGPT (المحولات الحوارية التوليدية المدربة مسبقًا) هي نموذج لغوي ذاتي الانحدار كانت مقدمة في نوفمبر 2019 بواسطة Microsoft Research. مع أوجه التشابه مع GPT-2 ، تم اختبار النموذج مسبقًا لتوليد محادثة شبيهة بالبشر. ومع ذلك ، كان المصدر الأساسي للمعلومات هو 147 مليون حوار متعدد الأدوار تم كشطه من خيوط Reddit.

أمثلة على جيل متعدد الأدوار من DiabloGPT.

وقد لاحظ المبشر رئيس منظمة HumanFirst Cobus Greyling نجاحه في تطبيق DialoGPT في خدمة المراسلة Telegram لإضفاء الحيوية على النموذج كروبوت محادثة. وأضاف أن استخدام Amazon Web Services و Amazon SageMaker يمكن أن يساعد في ضبط الشفرة.

رمز DialoGPT متاح في جيثب.

ALBERT من Google

ألبرت (A Lite BERT) هي نسخة مختصرة من BERT الأصلي وتم تطويرها بواسطة Google في ديسمبر 2019.

باستخدام ALBERT ، حدت Google من عدد المعلمات المسموح بها في النموذج من خلال تقديم معلمات مع "تضمين الطبقة المخفية".

أداء الآلة في تحدي RACE (فهم القراءة مثل SAT) بواسطة Google

تم تحسين هذا ليس فقط على طراز BERT ولكن أيضًا على XLNet و RoBERTa لأنه يمكن تدريب ALBERT على نفس مجموعة البيانات الأكبر من المعلومات المستخدمة للنموذجين الأحدث مع الالتزام بحجم أصغر حدود. بشكل أساسي ، يعمل ALBERT فقط مع المعلمات اللازمة لوظائفه ، مما أدى إلى زيادة الأداء والدقة. ذكرت Google بالتفصيل أنها وجدت أن ALBERT قد تجاوز BERT في 12 معيارًا للغة البرمجة اللغوية العصبية ، بما في ذلك معيار SAT لفهم القراءة.

على الرغم من عدم ذكره بالاسم ، تم تضمين GPT في تصوير ALBERT على مدونة أبحاث Google.

أصدرت Google ALBERT كمصدر مفتوح في يناير 2020 ، وتم تنفيذه على رأس TensorFlow من Google. الرمز متاح في جيثب.

T5 من جوجل

T5 (محول تحويل النص إلى نص) هو نموذج البرمجة اللغوية العصبية مقدمة من Google في عام 2019 ، استعيرت من مجموعة من الطرز السابقة ، بما في ذلك GPT و BERT و XLNet و RoBERTa و ALBERT ، من بين آخرين. يضيف أ مجموعة بيانات جديدة وفريدة من نوعها يسمى Colossal Clean Crawled Corpus (C4) ، والذي يسمح للمحول بإنتاج جودة أعلى والنتائج السياقية مقارنة بمجموعات البيانات الأخرى مقارنة بملفات ويب الزحف الشائعة المستخدمة XLNet.
تدريب مسبق على Google T5 لتحويل النص إلى نص.
أدى التدريب المسبق على T5 إلى إنشاء تطبيقات chatbot ، بما في ذلك InferKit التحدث إلى المحولات و ال منظمة العفو الدولية المحصنة لعبة. تشبه مولدات النص ChatGPT من حيث أنها تسمح لك بإنشاء محادثات واقعية بناءً على ما يولده الذكاء الاصطناعي بعد مطالباتك أو استفساراتك الأولية.
رمز T5 متاح في جيثب.

CTRL بواسطة Salesforce

كان CTRL بواسطة Salesforce (الثقة الحاسوبية وطبقة الاستدلال) أحد أكبر نماذج اللغة التي تم إصدارها للجمهور عندما تم الإعلان عنه في سبتمبر 2019 بواسطة Salesforce. يمكن استخدام نموذج اللغة المكون من 1.6 مليار معلمة لتحليل مجموعات كبيرة من النص في وقت واحد ، مثل تلك المرتبطة بصفحات الويب. تتضمن بعض الاستخدامات العملية المحتملة الاقتران بالمراجعات والتقييمات والسمات.
مثال على إحالة مصدر Salesforce CTRL.
يمكن لنموذج اللغة CTRL التفريق بين هدف استعلام معين وصولاً إلى علامات الترقيم. لاحظ Salesforce يمكن للنموذج أن يلتقط الفرق بين "الاحتباس الحراري كذبة." كرأي لا يحظى بشعبية و "الاحتباس الحراري هو تقع "كنظرية مؤامرة نظرًا لاختلاف الفترة في العبارات وصياغة خيوط Reddit المقابلة لـ كل.
مراجع CTRL ما يصل إلى 140 جيجابايت من البيانات للتدريب المسبق من المصادر ، بما في ذلك Wikipedia و Project Gutenberg ومراجعات Amazon و Reddit. كما يشير إلى عدد من الأخبار والمعلومات والموارد الدولية.
رمز CTRL متاح في جيثب.

GShard من Google

GShard هو أ نموذج ترجمة عملاق للغة الذي - التي قدم جوجل في يونيو 2020 لغرض تحجيم الشبكة العصبية. يشتمل النموذج على 600 مليار معلمة ، مما يسمح بمجموعات كبيرة من التدريب على البيانات في وقت واحد. GShard ماهر بشكل خاص في ترجمة اللغة ويتم تدريبه على ترجمة 100 لغة إلى اللغة الإنجليزية في أربعة أيام.

خلاط بواسطة Facebook AI Research

Blender هو روبوت محادثة مفتوح المصدر تم تقديمه في أبريل 2020 بواسطة Facebook AI Research. لوحظ أن chatbot قد حسّن مهارات المحادثة مقارنة بالنماذج المنافسة ، مع القدرة على توفيرها إشراك نقاط الحديث ، والاستماع وإظهار فهم لمدخلات الشريك ، وإظهار التعاطف والشخصية.

مثال روبوت دردشة الخلاط.

تمت مقارنة Blender ببرنامج Meena chatbot من Google ، والذي تمت مقارنته بدوره بـ OpenAI's GPT-2

رمز الخلاط متاح في Parl.ai.

بيغاسوس من جوجل

Pegasus هو نموذج معالجة اللغة الطبيعية الذي كان مقدمة من Google في ديسمبر 2019. يمكن تدريب Pegasus على إنشاء ملخصات ، وعلى غرار النماذج الأخرى مثل BERT و GPT-2 و RoBERTa و XLNet و ALBERT و T5 ، يمكن ضبطها لمهام محددة. تم اختبار Pegasus على كفاءته في تلخيص الأخبار والعلوم والقصص والتعليمات ورسائل البريد الإلكتروني وبراءات الاختراع والفواتير التشريعية مقارنة بالموضوعات البشرية.

تمت مقارنة PEGASUS NLP بالإنسان من حيث تلخيص الجودة.

رمز Pegasus متاح في جيثب.

توصيات المحررين

  • يستطيع Google Bard التحدث الآن ، ولكن هل يمكنه إغراق ChatGPT؟
  • ChatGPT: آخر الأخبار والخلافات والنصائح التي تحتاج إلى معرفتها
  • انخفضت حركة مرور موقع ChatGPT لأول مرة
  • تم تعطيل ميزة تصفح Bing في ChatGPT بسبب خلل في الوصول إلى نظام حظر الاشتراك غير المدفوع
  • أفضل روبوتات محادثة AI يمكنك تجربتها: ChatGPT و Bard والمزيد