يكشف التحقيق عن الجانب الأكثر ضبابية من روبوت محادثة الذكاء الاصطناعي ، ChatGPT

أ تحقيق الوقت كشفت عن الجانب الأكثر ضبابية في صناعة روبوتات المحادثة بالذكاء الاصطناعي ، مما سلط الضوء على كيفية استخدام شركة ناشئة واحدة على الأقل لممارسات مشكوك فيها لتحسين تقنيتها.

يركز تقرير Time ، الذي نُشر يوم الأربعاء ، على برامج OpenAI و OpenAI المدعومة من Microsoft روبوت الدردشة ChatGPT الخاص به، وهي تقنية حظيت باهتمام كبير مؤخرًا لقدرتها الرائعة على إنتاج نص محادثة طبيعي للغاية.

مقاطع الفيديو الموصى بها

وجد تحقيق Time أنه لتدريب تقنية الذكاء الاصطناعي ، استخدمت شركة OpenAI خدمات فريق في كينيا للتعمق في النص الذي متضمنًا موضوعًا مزعجًا مثل الاعتداء الجنسي على الأطفال ، والحيوانية ، والقتل ، والانتحار ، والتعذيب ، وإيذاء النفس ، و سفاح القربى. ولجهودهم في تصنيف المحتوى البغيض ، حصل العديد من أعضاء الفريق على أقل من دولارين في الساعة.

متعلق ب

  • يستطيع Google Bard التحدث الآن ، ولكن هل يمكنه إغراق ChatGPT؟
  • ChatGPT: آخر الأخبار والخلافات والنصائح التي تحتاج إلى معرفتها
  • تم التخلص من النمو القياسي في ChatGPT من خلال تطبيق فيروسي جديد

كان العمل ، الذي بدأ في نوفمبر 2021 ، ضروريًا لأن سلف ChatGPT ، GPT-3 ، رغم أنه مثير للإعجاب ، كان يميل إلى الانطلاق خارج المحتوى المسيء حيث تم تجميع مجموعة بيانات التدريب الخاصة بها عن طريق كشط مئات المليارات من الكلمات من جميع أنحاء الويب.

سيقوم الفريق الذي يتخذ من كينيا مقراً له ، والذي تديره شركة Sama في سان فرانسيسكو ، بتسمية المحتوى المسيء للمساعدة تدريب روبوت محادثة OpenAI ، وبالتالي تحسين مجموعة البيانات وتقليل فرص أي شيء مرفوض انتاج.

قالت تايم إن جميع موظفي سما الأربعة الذين قابلتهم وصفوا أنهم تعرضوا لندوب ذهنية بسبب عملهم. قدمت سما جلسات استشارية ، لكن الموظفين قالوا إنها كانت غير فعالة ونادراً ما تحدث بسبب متطلبات الوظيفة ، على الرغم من أن متحدثًا باسم سما قال لمجلة تايم إن المعالجين يمكن الوصول إليهم في أي مكان وقت.

قال أحد العمال لصحيفة التايم إن قراءة المواد الصادمة تبدو أحيانًا وكأنها "تعذيب" ، مضيفًا أنهم شعروا "بالانزعاج" بحلول نهاية الأسبوع.

في فبراير 2022 ، اتخذت الأمور منعطفًا أكثر قتامة بالنسبة لشركة Sama عندما أطلقت OpenAI مشروعًا منفصلاً لا علاقة له بـ ChatGPT تطلب من فريقها في كينيا جمع صور ذات طبيعة جنسية وعنيفة. أخبرت شركة OpenAI مجلة تايم أن العمل كان ضروريًا لجعل أدوات الذكاء الاصطناعي الخاصة بها أكثر أمانًا.

في غضون أسابيع من بدء هذا المشروع القائم على الصور ، دفعت الطبيعة المقلقة للمهام سما إلى إلغاء جميع عقودها معها أوبن إيه آي ، على الرغم من أن مجلة تايم تشير إلى أنها قد تكون مدفوعة أيضًا بتداعيات العلاقات العامة من تقرير حول موضوع مشابه نشرته عن فيسبوك في نفس الوقت تقريبًا.

قالت منظمة Open AI لـ Time إنه كان هناك "سوء تفاهم" حول طبيعة الصور التي طلبت من Sama القيام بها جمعها ، مع الإصرار على أنها لم تطلب أكثر الصور تطرفاً ، ولم تشاهد أيًا منها مرسل.

لكن إنهاء العقود أثر على سبل عيش العمال ، حيث فقد بعض أعضاء الفريق في كينيا وظائفهم ، بينما نُقل آخرون إلى مشاريع منخفضة الأجور.

تحقيق الوقت يقدم نظرة غير مريحة ولكنها مهمة على نوع العمل الذي يتم إجراؤه في روبوتات الدردشة المدعومة بالذكاء الاصطناعي والتي أثارت حماس صناعة التكنولوجيا مؤخرًا.

على الرغم من أن التكنولوجيا قد تكون مفيدة ومن المحتمل أن تكون مفيدة ، إلا أنها تأتي على حساب تكلفة بشرية وتطرح عددًا كبيرًا من الأسئلة الأخلاقية حول كيفية عمل الشركات تطوير تقنياتهم الجديدة ، وعلى نطاق أوسع حول كيفية استمرار البلدان الأكثر ثراء في توزيع المهام غير المرغوب فيها على الدول الفقيرة مقابل تمويل مالي أقل. مصاريف.

ستخضع الشركات الناشئة التي تدعم هذه التقنية لمزيد من التدقيق المركّز في الأشهر والسنوات المقبلة ، ومن ثمّ ، من الأفضل مراجعة ممارساتها وتحسينها في أقرب فرصة.

تواصلت Digital Trends مع OpenAI للتعليق على تقرير Time وسنقوم بتحديث هذه المقالة عندما نتلقى ردًا.

توصيات المحررين

  • أفضل أدوات تحرير الفيديو بتقنية الذكاء الاصطناعي
  • يواجه OpenAI صانع ChatGPT تحقيق لجنة التجارة الفيدرالية بشأن قوانين حماية المستهلك
  • تهدف شركة الذكاء الاصطناعي الجديدة التابعة لـ Elon Musk إلى "فهم الكون"
  • انخفضت حركة مرور موقع ChatGPT لأول مرة
  • يقول العلماء إن اختراقات الذكاء الاصطناعي يمكن أن تأتي من خلال أدمغة النحل

ترقية نمط حياتكتساعد Digital Trends القراء على متابعة عالم التكنولوجيا سريع الخطى من خلال أحدث الأخبار ومراجعات المنتجات الممتعة والافتتاحيات الثاقبة والنظرات الخاطفة الفريدة من نوعها.