إن Google Bard عبارة عن فوضى أخلاقية، كما يقول العاملون في Google

أطلقت جوجل باردزعم تقرير جديد أن تطبيق ChatGPT المنافس له، على الرغم من المخاوف الداخلية من أنه كان "كاذبًا مرضيًا" وأنتج نتائج "مثيرة للإحباط". يقول العامل إن هذه المخاوف تم تجاهلها على ما يبدو في محاولة محمومة للقيام بذلك اللحاق بـ ChatGPT ودرء التهديد الذي يمكن أن يشكله أعمال البحث في جوجل.

ويأتي الكشف من أ تقرير بلومبرج التي أخذت الغوص العميق في جوجل بارد والقضايا التي أثارها الموظفون الذين عملوا في المشروع. إنه حساب مثير للدهشة للطرق التي يبدو أن برنامج الدردشة الآلي قد خرج بها عن المسار والمخاوف التي أثارتها هذه الحوادث بين العمال المعنيين.

ChatGPT مقابل Google على الهواتف الذكية.

على سبيل المثال، تستشهد بلومبرج بموظف مجهول طلب من بارد تعليمات حول كيفية الهبوط بالطائرة، ثم شعر بالرعب عندما رأى أن وصف بارد سيؤدي إلى تحطم الطائرة. وقال عامل آخر إن نصائح بارد بشأن الغوص "من المرجح أن تؤدي إلى إصابة خطيرة أو الوفاة".

متعلق ب

  • ChatGPT: آخر الأخبار والخلافات والنصائح التي تحتاج إلى معرفتها
  • ما هي مطالبة DAN لـ ChatGPT؟
  • بإمكان Google Bard الآن التحدث، لكن هل يمكنه إخفاء ChatGPT؟

يبدو أن هذه المشكلات قد أثيرت قبل وقت قصير من إطلاق Bard، ومع ذلك، مضت Google قدمًا في تحديد تاريخ بدء التشغيل، وكانت هذه هي رغبتها في مواكبة التطور.

المسار مشتعل بواسطة ChatGPT. لكنها فعلت ذلك مع تجاهل التزاماتها الأخلاقية، الأمر الذي لم يسفر عن نصائح خطيرة فحسب، بل أدى إلى انتشار محتمل للمعلومات المضللة أيضا.

مقاطع الفيديو الموصى بها

التسرع في الانطلاق

يظهر برنامج الدردشة الآلي Google Bard AI في متصفح الويب على شاشة الهاتف الذكي الذي يعمل بنظام Android.
مجاهد متكين / Unsplash

وفي عام 2021، تعهدت جوجل بمضاعفة فريق موظفيها الذي يدرس العواقب الأخلاقية للذكاء الاصطناعي والاستثمار بشكل أكبر في تحديد الأضرار المحتملة. ومع ذلك، فإن هذا الفريق أصبح الآن "عاجزًا ومحبطًا،" كما يزعم تقرير بلومبرج. والأسوأ من ذلك أنه تم إخبار أعضاء الفريق "بعدم الوقوف في الطريق أو محاولة قتل أي من أدوات الذكاء الاصطناعي التوليدية قيد التطوير"، مما يجعل التزام جوجل بأخلاقيات الذكاء الاصطناعي موضع تساؤل.

وقد شوهد ذلك على أرض الواقع قبل إطلاق Bard مباشرة. في شهر فبراير/شباط، أرسل أحد العاملين في شركة جوجل رسالة إلى مجموعة داخلية يقول فيها: "إن برنامج بارد أسوأ من كونه عديم الفائدة: من فضلكم لا تطلقوه"، ووافق العشرات من الموظفين الآخرين على ذلك. وفي الشهر التالي، أبطل جين جيناي، رئيس حوكمة الذكاء الاصطناعي في جوجل، تقييم المخاطر الذي ذكر بارد يمكن أن يسبب ضررًا ولم يكن جاهزًا للإطلاق، مما يؤدي إلى المضي قدمًا في الإصدار العام الأول لـ chatbot.

يرسم تقرير بلومبرج صورة لشركة لا تثق بالمخاوف الأخلاقية التي تشعر أنها يمكن أن تعيق ربحية منتجاتها. على سبيل المثال، طلب أحد العاملين العمل على تحقيق العدالة في التعلم الآلي، لكنه تم إحباطه مراراً وتكراراً، لدرجة أن ذلك أثر على مراجعة أدائه. وذكر الموظف أن المديرين اشتكوا من أن المخاوف الأخلاقية تعرقل "عملهم الحقيقي".

إنه موقف مثير للقلق، خاصة وأننا رأينا بالفعل الكثير من الأمثلة عليه سوء سلوك روبوت الدردشة بالذكاء الاصطناعي التي أنتجت معلومات مسيئة أو مضللة أو كاذبة تمامًا. إذا كان تقرير بلومبرج صحيحًا بشأن نهج جوجل العدائي فيما يبدو تجاه المخاوف الأخلاقية، فقد يكون هذا مجرد البداية عندما يتعلق الأمر بالمشاكل الناجمة عن الذكاء الاصطناعي.

توصيات المحررين

  • يطالب كبار المؤلفين بالدفع من شركات الذكاء الاصطناعي مقابل استخدام أعمالهم
  • GPT-4: كيفية استخدام chatbot AI الذي يضع ChatGPT في العار
  • يستخدم Wix ChatGPT لمساعدتك في إنشاء موقع ويب كامل بسرعة
  • يواجه صانع ChatGPT OpenAI تحقيقًا من لجنة التجارة الفيدرالية (FTC) بشأن قوانين حماية المستهلك
  • انخفضت حركة المرور على موقع ChatGPT للمرة الأولى

ترقية نمط حياتكتساعد الاتجاهات الرقمية القراء على متابعة عالم التكنولوجيا سريع الخطى من خلال أحدث الأخبار ومراجعات المنتجات الممتعة والمقالات الافتتاحية الثاقبة ونظرات خاطفة فريدة من نوعها.