يتحرك الذكاء الاصطناعي التوليدي بسرعة لا تصدق في الأشهر الأخيرة ، مع إطلاق العديد من الأدوات والروبوتات مثل برنامج ChatGPT من OpenAI, جوجل بارد، و اكثر. ومع ذلك ، فإن هذا التطور السريع يسبب قلقًا خطيرًا بين قدامى المحاربين في مجال الذكاء الاصطناعي - هكذا لدرجة أن أكثر من 1000 منهم قد وقعوا على خطاب مفتوح يدعو مطوري الذكاء الاصطناعي إلى انتقاد الفرامل.
تم نشر الرسالة على موقع الويب الخاص بـ معهد مستقبل الحياة، وهي منظمة تتمثل مهمتها المعلنة في "توجيه التكنولوجيا التحويلية نحو الاستفادة من الحياة والابتعاد عن المخاطر الشديدة على نطاق واسع". بين ال الموقعون هم العديد من الأكاديميين البارزين والقادة في مجال التكنولوجيا ، بما في ذلك المؤسس المشارك لشركة Apple ستيف وزنياك ، والرئيس التنفيذي لشركة Twitter Elon Musk ، والسياسي Andrew يانغ.
مقاطع الفيديو الموصى بها
يدعو المقال جميع الشركات التي تعمل على نماذج ذكاء اصطناعي أقوى من تم إصداره مؤخرًا GPT-4 لوقف العمل فورًا لمدة ستة أشهر على الأقل. يجب أن يكون هذا الوقف "عامًا ويمكن التحقق منه" وسيتيح الوقت "للتطوير المشترك وتنفيذ مجموعة مشتركة بروتوكولات السلامة لتصميم وتطوير الذكاء الاصطناعي المتقدم التي يتم تدقيقها والإشراف عليها بدقة من قبل جهات خارجية مستقلة خبراء. "
متعلق ب
- يواجه OpenAI صانع ChatGPT تحقيق لجنة التجارة الفيدرالية بشأن قوانين حماية المستهلك
- تم تعطيل ميزة تصفح Bing في ChatGPT بسبب خلل في الوصول إلى نظام حظر الاشتراك غير المدفوع
- قد يكتب منافس ChatGPT من Apple رمزًا تلقائيًا لك
تقول الرسالة أن هذا ضروري لأن "أنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري يمكن أن تشكل مخاطر عميقة على المجتمع والإنسانية." أولئك تشمل المخاطر انتشار الدعاية ، وتدمير الوظائف ، وإحلال وتقادم الحياة البشرية ، و "فقدان السيطرة حضارتنا ". يضيف المؤلفون أن القرار بشأن المضي قدمًا في هذا المستقبل لا ينبغي أن يترك "للتكنولوجيا غير المنتخبة القادة. "
الذكاء الاصطناعي "لصالح الجميع"
تأتي الرسالة بعد الادعاءات بأن GPT-5 ، الإصدار التالي من تقنية ChatGPT التي تعمل بالطاقة ، يمكن أن يحقق الذكاء الاصطناعي العام. إذا كان هذا صحيحًا ، فهذا يعني أنه سيكون قادرًا على فهم وتعلم أي شيء يمكن للإنسان فهمه. يمكن أن يجعلها قوية بشكل لا يصدق بطرق لم يتم استكشافها بالكامل بعد.
علاوة على ذلك ، تؤكد الرسالة أن التخطيط والإدارة المسؤولين المحيطين بتطوير أنظمة الذكاء الاصطناعي لا يحدثان ، "على الرغم من أن الأشهر الأخيرة قد شهدت ذكاءً اصطناعيًا المختبرات تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد - ولا حتى منشئوها - فهمها أو توقعها أو الاعتماد عليها يتحكم."
بدلاً من ذلك ، تؤكد الرسالة أنه يجب إنشاء أنظمة حوكمة جديدة تنظم تطوير الذكاء الاصطناعي ، وتساعد الأشخاص على التمييز بين محتوى من صنع الإنسان ، يحمل مختبرات الذكاء الاصطناعي مثل OpenAI المسؤولية عن أي ضرر تسببه ، وتمكين المجتمع من التعامل مع اضطراب الذكاء الاصطناعي (خاصةً الديمقراطية) ، و اكثر.
انتهى المؤلفون بملاحظة إيجابية ، حيث زعموا أن "البشرية يمكن أن تتمتع بمستقبل مزدهر مع الذكاء الاصطناعي... حيث نحصد المكافآت ، هندسة هذه الأنظمة لتحقيق المنفعة الواضحة للجميع ، وإعطاء المجتمع فرصة للتكيف ". التوقف المؤقت لأنظمة الذكاء الاصطناعي أكثر قوة من GPT-4 من شأنه أن يسمح بحدوث ذلك ، كما يقولون.
هل سيكون للرسالة تأثيرها المقصود؟ من الصعب قول ذلك. من الواضح أن هناك حوافز لـ OpenAI لمواصلة العمل على نماذج متقدمة ، مالية وذات سمعة. ولكن مع وجود العديد من المخاطر المحتملة - وقلة الفهم لها - يشعر مؤلفو الرسالة بوضوح أن هذه الحوافز خطيرة للغاية ولا يمكن متابعتها.
توصيات المحررين
- يستطيع Google Bard التحدث الآن ، ولكن هل يمكنه إغراق ChatGPT؟
- انخفضت حركة مرور موقع ChatGPT لأول مرة
- 81٪ يعتقدون أن ChatGPT يمثل خطرًا أمنيًا ، كما وجد الاستطلاع
- لقد قمت بتدريس ChatGPT ليعلمني ألعاب الطاولة ، والآن لن أعود أبدًا
- تغريم محامي نيويورك لاستخدامهم قضايا ChatGPT وهمية في مذكرة قانونية
ترقية نمط حياتكتساعد Digital Trends القراء على متابعة عالم التكنولوجيا سريع الخطى من خلال أحدث الأخبار ومراجعات المنتجات الممتعة والافتتاحيات الثاقبة والنظرات الخاطفة الفريدة من نوعها.