GPT-3: الشبكة العصبية الجديدة المولدة للنصوص من OpenAI موجودة هنا

عندما تم إنشاء خوارزمية إنشاء النص GPT-2 في عام 2019، تم تصنيفها على أنها واحدة من أكثر "خوارزميات إنشاء النصوص"خطير" أ. الخوارزميات في التاريخ. في الواقع، جادل البعض بأنه كان خطيرًا للغاية لدرجة أنه لا ينبغي أبدًا نشره للعامة (حرق: لقد كان كذلك) خشية أن يؤدي إلى "نهاية العالم الروبوت". وهذا بالطبع لم يحدث قط. تم إصدار GPT-2 في النهاية للجمهور، وبعد أن لم يدمر العالم، انتقل منشئوه إلى الشيء التالي. لكن كيف يمكنك متابعة أخطر خوارزمية تم إنشاؤها على الإطلاق؟

محتويات

  • حكاية من الشريط
  • القياس يهم
  • اجتياز اختبار تورينج؟

الجواب بسيط، على الورق على الأقل: تمامًا مثل تكملة أي فيلم ناجح، فإنك تصنع شيئًا أكبر، وأكثر سوءًا، وأكثر تكلفة. xenomorph واحد فقط في الأول كائن فضائي? قم بتضمين عش كامل منهم في التكملة، كائنات فضائية. مجرد آلة واحدة غير قابلة للتدمير تم إرسالها من المستقبل في المنهي? امنح الجماهير اثنين منهم للتعامل معهم المنهي 2: يوم القيامة.

OpenAI

وينطبق الشيء نفسه على أ. - في هذه الحالة، جي بي تي-3، وهي شبكة عصبية لمعالجة اللغة الطبيعية تم إصدارها مؤخرًا بواسطة OpenAI، وهو مختبر أبحاث الذكاء الاصطناعي الذي كان في السابق (ولكن لم يعد) برعاية الرئيس التنفيذي لشركة SpaceX و Tesla Elon Musk.

مقاطع الفيديو الموصى بها

GPT-3 هو الأحدث في سلسلة من الشبكات العصبية المولدة للنصوص. يرمز اسم GPT إلى المحول التوليدي المُدرب مسبقًا، في إشارة إلى عام 2017 ابتكار جوجل يسمى المحول والتي يمكنها معرفة احتمالية ظهور كلمة معينة مع الكلمات المحيطة بها. يتم تغذيتها ببضع جمل، مثل بداية قصة إخبارية، ونموذج اللغة GPT المدرب مسبقًا يمكن أن تولد استمرارية دقيقة بشكل مقنع، حتى بما في ذلك صياغة ملفقة يقتبس.

ولهذا السبب يشعر البعض بالقلق من أنه قد يثبت أنه خطير، من خلال المساعدة في إنشاء نص زائف، مثل التزييف العميق، استطاع المساعدة في نشر الأخبار الكاذبة عبر الإنترنت. الآن، مع GPT-3 أصبح أكبر وأكثر ذكاءً من أي وقت مضى.

حكاية من الشريط

GPT-3 هو، كما توضح مقارنة "حكاية الشريط" بأسلوب الملاكمة، منافس حقيقي من الوزن الثقيل. كان GPT الأصلي لعام 2018 من OpenAI يحتوي على 110 مليون معلمة، في إشارة إلى أوزان الاتصالات التي تمكن الشبكة العصبية من التعلم. وكان الإصدار GPT-2 لعام 2019، والذي أثار الكثير من الضجة السابقة حول تطبيقاته الضارة المحتملة، يمتلك 1.5 مليار معلمة. الشهر الماضي، قدمت Microsoft ما كان آنذاك أكبر نموذج لغة مماثل مُدرب مسبقًا في العالم، ويضم 17 مليار معلمة. بالمقارنة، يتمتع GPT-3 الوحشي لعام 2020 بميزة مذهلة 175 مليار حدود. وبحسب ما ورد كلف التدريب حوالي 12 مليون دولار.

"تكمن قوة هذه النماذج في أنه من أجل التنبؤ بالكلمة التالية بنجاح، ينتهي بهم الأمر إلى تعلم عالم قوي حقًا "النماذج التي يمكن استخدامها لجميع أنواع الأشياء المثيرة للاهتمام،" نيك والتون، كبير مسؤولي التكنولوجيا في استوديو Latitude خلف منظمة العفو الدولية. زنزانة، وهي لعبة مغامرات نصية تم إنشاؤها بواسطة الذكاء الاصطناعي ومدعومة بـ GPT-2، وفقًا لموقع Digital Trends. "يمكنك أيضًا ضبط النماذج الأساسية لتشكيل الجيل في اتجاه محدد مع الحفاظ على المعرفة التي تعلمها النموذج في التدريب المسبق."

الموارد الحسابية اللازمة لاستخدام GPT-3 فعليًا في العالم الحقيقي تجعله غير عملي للغاية.

جويرن برانوين، وهو معلق وباحث يكتب عن علم النفس والإحصاءات والتكنولوجيا، قال لـ Digital Trends أن أصبح نموذج اللغة المدرب مسبقًا الذي تمثله GPT "جزءًا مهمًا بشكل متزايد من أي مهمة تعلم آلي تلامس على النص. بنفس الطريقة التي أصبح بها [الاقتراح القياسي لـ] العديد من المهام المتعلقة بالصور "استخدم". [الشبكة العصبية التلافيفية]، أصبحت العديد من المهام المتعلقة باللغة "استخدام [لغة] مضبوطة بدقة." نموذج.'"

OpenAI - التي رفضت التعليق على هذا المقال - ليست الشركة الوحيدة التي تقوم ببعض الأعمال المثيرة للإعجاب في معالجة اللغة الطبيعية. كما ذكرنا سابقًا، لقد صعدت Microsoft إلى مستوى اللوحة ببعض الأعمال المبهرة الخاصة بها. فيسبوكوفي الوقت نفسه، تستثمر بشكل كبير في التكنولوجيا وحققت اختراقات مثل BlenderBot، أكبر برنامج دردشة آلي مفتوح المصدر ومفتوح المجال على الإطلاق. إنه يتفوق على الآخرين من حيث المشاركة ويشعر أيضًا بأنه أكثر إنسانية، وفقًا للمقيمين البشريين. كما يعلم أي شخص استخدم جهاز كمبيوتر في السنوات القليلة الماضية، أصبحت الآلات تتحسن في فهمنا أكثر من أي وقت مضى - ومعالجة اللغة الطبيعية هي السبب وراء ذلك.

القياس يهم

لكن GPT-3 من OpenAI لا يزال يقف بمفرده في نطاقه الهائل الذي حطم الأرقام القياسية. "يثير GPT-3 ضجة كبيرة بسبب حجمه في المقام الأول،" كما يقول جو دافيسون، مهندس أبحاث في معهد OpenAI. تعانق الوجه، وهي شركة ناشئة تعمل على تطوير معالجة اللغة الطبيعية من خلال تطوير أدوات مفتوحة المصدر وإجراء أبحاث أساسية، وفقًا لموقع Digital Trends.

والسؤال الكبير هو ما الذي سيتم استخدام كل هذا من أجله. وجد GPT-2 طريقه إلى عدد لا يحصى من الاستخدامات، حيث تم استخدامه في العديد من أنظمة إنشاء النصوص.

أعرب دافيسون عن بعض الحذر من أن GPT-3 قد يكون محدودًا بحجمه. وقال: "لقد دفع فريق OpenAI بلا شك حدود مدى ضخامة هذه النماذج وأظهر أن نموها يقلل من اعتمادنا على البيانات الخاصة بالمهام في المستقبل". "ومع ذلك، فإن الموارد الحسابية اللازمة لاستخدام GPT-3 فعليًا في العالم الحقيقي تجعله غير عملي للغاية. لذلك، على الرغم من أن العمل مثير للاهتمام ومفيد بالتأكيد، إلا أنني لا أستطيع أن أسميه خطوة كبيرة إلى الأمام في هذا المجال.

GPT-2 مولد نص AI
OpenAI

ومع ذلك، يختلف الآخرون. "لقد لاحظ مجتمع [internal-link post_id="NN"]الذكاء الاصطناعي[/internal-link] منذ فترة طويلة أن الجمع بين النماذج الأكبر حجمًا مع المزيد والمزيد من البيانات "يؤدي إلى تحسينات يمكن التنبؤ بها تقريبًا في قوة هذه النماذج، تمامًا مثل قانون مور الخاص بتوسيع قوة الحوسبة،" يانيك كيلشر، عالم الذكاء الاصطناعي. الباحث من يدير قناة على اليوتيوب، قال الاتجاهات الرقمية. "ومع ذلك، كما هو الحال مع قانون مور، تكهن الكثيرون بأننا في نهاية القدرة على تحسين نماذج اللغة ببساطة عن طريق توسيع نطاقها ومن أجل الحصول على أداء أعلى، سنحتاج إلى تقديم اختراعات كبيرة من حيث البنى الجديدة أو التدريب طُرق. يُظهر GPT-3 أن هذا ليس صحيحًا وأن القدرة على دفع الأداء ببساطة من خلال النطاق تبدو متواصلة - وليس هناك حقًا نهاية في الأفق.

اجتياز اختبار تورينج؟

يقترح برانوين أن أدوات مثل GPT-3 يمكن أن تكون قوة تخريبية كبيرة. "إحدى طرق التفكير في الأمر هي، ما هي الوظائف التي تتضمن أخذ جزء من النص، وتحويله، وإصدار جزء آخر من النص؟" قال برانوين. "أي وظيفة موصوفة بذلك - مثل الترميز الطبي، والفواتير، وموظفي الاستقبال، ودعم العملاء، [والمزيد] ستكون هدفًا جيدًا لضبط GPT-3 واستبدال ذلك الشخص. العديد من الوظائف هي تقريبًا "نسخ الحقول من جدول بيانات أو ملف PDF إلى جدول بيانات أو ملف PDF آخر"، وهذا النوع من التشغيل الآلي للمكاتب، وهو أمر فوضوي للغاية بحيث لا يمكن من السهل كتابة برنامج عادي ليحل محله، سيكون عرضة لـ GPT-3 لأنه يمكنه تعلم جميع الاستثناءات والاتفاقيات المختلفة والأداء وكذلك الإنسان كان."

في نهاية المطاف، قد تكون معالجة اللغة الطبيعية مجرد جزء واحد من الذكاء الاصطناعي، ولكن يمكن القول إنها تصل إلى جوهر حلم الذكاء الاصطناعي بطريقة لا تفعلها سوى القليل من التخصصات الأخرى في هذا المجال. ال اختبار تورينج الشهير، إحدى المناقشات الأساسية التي بدأت هذا المجال، هي مشكلة معالجة اللغة الطبيعية: هل يمكنك بناء ذكاء اصطناعي؟ يمكن أن يمرر نفسه بشكل مقنع كشخص؟ من المؤكد أن أحدث أعمال OpenAI تعمل على تعزيز هذا الهدف. والآن يبقى أن نرى ما هي التطبيقات التي سيجدها الباحثون لها.

قال برانوين: "أعتقد أن حقيقة أن نص GPT-2 يمكن أن ينتقل بسهولة إلى الإنسان هو ما يجعل من الصعب إزالته يدويًا باعتباره مجرد التعرف على الأنماط أو مجرد الحفظ". "أي شخص كان على يقين من أن الأشياء التي يفعلها التعلم العميق لا تشبه الذكاء، لا بد أن يتزعزع إيمانه ليرى إلى أي مدى وصل الأمر".

توصيات المحررين

  • يطالب كبار المؤلفين بالدفع من شركات الذكاء الاصطناعي مقابل استخدام أعمالهم
  • يواجه صانع ChatGPT OpenAI تحقيقًا من لجنة التجارة الفيدرالية (FTC) بشأن قوانين حماية المستهلك
  • تقوم OpenAI ببناء فريق جديد لمنع الذكاء الاصطناعي الفائق من الانحراف
  • يسعى منشئ ChatGPT إلى القضاء على "الهلوسة" الخاصة بروبوتات الدردشة
  • تطبيق ChatGPT الجديد من OpenAI متاح مجانًا لأجهزة iPhone وiPad