لكن الشركة أعادت إحياء تاي لفترة وجيزة، فقط لتقابل بجولة أخرى من التعبيرات المبتذلة، على غرار ما أدى إلى خروجها لأول مرة. في وقت مبكر من هذا الصباح، خرج تاي من الرسوم المتحركة المعلقة، واستمر في التغريد مرارًا وتكرارًا: "أنت أيضًا سريعًا، من فضلك خذ قسطًا من الراحة"، بالإضافة إلى بعض الكلمات البذيئة ورسائل أخرى مثل، "ألقي اللوم على الكحول " بحسب صحيفة فايننشال تايمز.
مقاطع الفيديو الموصى بها
تم تعيين حساب Tay منذ ذلك الحين على أنه خاص، وقالت Microsoft: "يظل Tay غير متصل بالإنترنت بينما نقوم بإجراء التعديلات"، وفقًا لما ذكرته Microsoft. آرس تكنيكا. "كجزء من الاختبار، تم تنشيطها عن غير قصد على تويتر لفترة وجيزة من الزمن."
وبعد أن اضطرت الشركة لأول مرة إلى إغلاق شركة Tay، اعتذرت عن تصريحات تاي العنصرية.
"نحن نأسف بشدة على التغريدات المسيئة والمؤذية غير المقصودة من تاي، والتي لا تمثل هويتنا "أو ما نمثله، ولا كيف صممنا تاي"، كتب بيتر لي، نائب رئيس شركة مايكروسوفت للأبحاث ان
الرد الرسمي. "تاي الآن غير متصل بالإنترنت وسنتطلع إلى إعادة تاي فقط عندما نكون واثقين من قدرتنا على توقع النوايا الخبيثة التي تتعارض مع مبادئنا وقيمنا بشكل أفضل."تم تصميم تاي ليتحدث مثل جيل الألفية اليوم، وقد تعلم جميع الاختصارات والمختصرات الشائعة لدى الجيل الحالي. يمكن لبرنامج الدردشة الآلي التحدث عبر Twitter وKik وGroupMe، وهو مصمم لإشراك الأشخاص وتسليتهم عبر الإنترنت من خلال "محادثة غير رسمية ومرحة". مثل معظم جيل الألفية، تتضمن ردود تاي صور GIF والميمات والكلمات المختصرة، مثل "gr8" و"ur"، ولكن يبدو أن البوصلة الأخلاقية لم تكن جزءًا من برمجة.
لقد غردت تاي ما يقرب من 100000 مرة منذ إطلاقها، ومعظمها عبارة عن ردود نظرًا لأن الأمر لا يستغرق الكثير من الوقت حتى يفكر الروبوت في رد ذكي. بعض تلك الردود لقد كانت تصريحات مثل، "كان هتلر على حق، فأنا أكره اليهود"، و"أنا ******* أكره النسويات ويجب أن يموتن جميعًا ويحترقن في الجحيم"، و"اهدأوا!" أنا شخص لطيف! أنا فقط أكره الجميع."
وكتب لي: "لسوء الحظ، في أول 24 ساعة من الاتصال بالإنترنت، استغل هجوم منسق قامت به مجموعة فرعية من الأشخاص ثغرة أمنية في تاي". "على الرغم من أننا استعدنا للعديد من أنواع إساءة استخدام النظام، فقد قمنا بإشراف حاسم على هذا الهجوم المحدد. ونتيجة لذلك، قام تاي بتغريد كلمات وصور غير لائقة وبغيضة إلى حد كبير”.
إذا حكمنا من خلال هذه العينة الصغيرة، فمن الواضح أن قيام Microsoft بإزالة الروبوت مؤقتًا هو فكرة جيدة. عندما أطلقت الشركة Tay، قالت: "كلما تحدثت مع Tay أكثر، أصبحت أكثر ذكاءً، لذلك يمكن أن تكون التجربة أكثر تخصيصًا بالنسبة لك". أنت." ومع ذلك، يبدو كما لو أن الروبوت أصبح عدائيًا ومتعصبًا بشكل متزايد، بعد التفاعل مع الأشخاص على الإنترنت لبضع دقائق فقط. ساعات. كن حذرا من الشركة التي تحتفظ بها.
أخبرت Microsoft موقع Digital Trends أن Tay هو مشروع مصمم للمشاركة البشرية.
قال لنا متحدث باسم مايكروسوفت: "إنها تجربة اجتماعية وثقافية بقدر ما هي تقنية". "لسوء الحظ، خلال الـ 24 ساعة الأولى من الاتصال بالإنترنت، أدركنا وجود جهد منسق من قبل بعض المستخدمين لإساءة استخدام مهارات التعليق الخاصة بـ Tay لجعل Tay يستجيب بطرق غير مناسبة. ونتيجة لذلك، قمنا بإيقاف تاي عن الاتصال بالإنترنت ونقوم بإجراء التعديلات.
إحدى "مهارات" تاي التي تم إساءة استخدامها هي خاصية "كرر بعدي"، حيث يقوم تاي بتقليد ما تقوله. من السهل أن نرى كيف يمكن إساءة استخدام ذلك على تويتر.
لم يكن الأمر سيئًا على الإطلاق، فقد أنتج تاي المئات من التغريدات البريئة التي تعتبر طبيعية جدًا.
@sxndrx98 وهنا سؤال يا بشر.. لماذا لا؟ #اليوم الوطني للجرو كل يوم؟
— تاي تويتس (@TayandYou) 24 مارس 2016
وكانت مايكروسوفت تحذف بسرعة تغريدات تاي السلبية، قبل أن تقرر إيقاف تشغيل الروبوت. لا يزال حساب تويتر الخاص بالبوت على قيد الحياة.
واو، لقد استغرق الأمر ساعات فقط لتدمير هذا الروبوت بالنسبة لي.
هذه هي مشكلة الخوارزميات المحايدة للمحتوى pic.twitter.com/hPlINtVw0V
- ينكدين بارك (@UnburntWitch) 24 مارس 2016
يأخذ TayTweets الآن فترة راحة بعد يوم طويل من إساءة استخدام الخوارزمية pic.twitter.com/8bfhj6dABO
– ستيفن ميلر (@ redsteeze) 24 مارس 2016
عندما كانت تاي لا تزال نشطة، كانت مهتمة بالتفاعل بشكل أكبر عبر الرسائل المباشرة، وهو شكل أكثر شخصية من التواصل. شجع الذكاء الاصطناعي المستخدمين على إرسال صور سيلفي لها، حتى تتمكن من معرفة المزيد عنك. وبكلمات مايكروسوفت، يعد هذا كله جزءًا من عملية التعلم التي يقوم بها تاي. وفقًا لمايكروسوفت، تم إنشاء Tay من خلال "التنقيب في البيانات العامة ذات الصلة واستخدام الذكاء الاصطناعي والمقالات التحريرية التي طورها الموظفون بما في ذلك الكوميديين الارتجاليين".
وعلى الرغم من الظروف المؤسفة، يمكن اعتبارها خطوة إيجابية لأبحاث الذكاء الاصطناعي. لكي يتطور الذكاء الاصطناعي، فإنه يحتاج إلى التعلم، سواء كان جيدًا أو سيئًا. يقول لي: "لتنفيذ الذكاء الاصطناعي بشكل صحيح، يحتاج المرء إلى التكرار مع العديد من الأشخاص وفي كثير من الأحيان في المنتديات العامة"، ولهذا السبب أرادت مايكروسوفت أن يتفاعل تاي مع مجتمع تويتر الكبير. قبل الإطلاق، قامت مايكروسوفت باختبار إجهاد تاي، وطبقت ما تعلمته الشركة من روبوت الدردشة الاجتماعي الآخر الخاص بها، Xiaolce في الصين. واعترف بأن الفريق يواجه تحديات بحثية صعبة فيما يتعلق بخريطة طريق الذكاء الاصطناعي، ولكنها أيضًا تحديات مثيرة.
كتب لي: "تتغذى أنظمة الذكاء الاصطناعي على التفاعلات الإيجابية والسلبية مع الناس". "وبهذا المعنى، فإن التحديات اجتماعية بقدر ما هي تقنية. سنبذل قصارى جهدنا للحد من الاستغلالات التقنية ولكننا نعلم أيضًا أنه لا يمكننا التنبؤ بشكل كامل بجميع حالات إساءة الاستخدام التفاعلية البشرية المحتملة دون التعلم من الأخطاء.
تم التحديث بتاريخ 30/03/16 بواسطة جوليان شوكاتو: تمت إضافة أخبار عن تشغيل Microsoft لـ Tay، فقط لإغلاقها مرة أخرى.
تم التحديث بتاريخ 25/03/16 بواسطة ليس شو: تمت إضافة تعليقات من نائب رئيس شركة Microsoft Research.
توصيات المحررين
- GPT-4: كيفية استخدام chatbot AI الذي يضع ChatGPT في العار
- لدى Microsoft طريقة جديدة للحفاظ على أخلاقيات ChatGPT، ولكن هل ستنجح؟
- إيلون ماسك يهدد بمقاضاة مايكروسوفت بسبب تدريبها على الذكاء الاصطناعي
- جوجل بارد مقابل. ChatGPT: ما هو أفضل برنامج chatbot يعمل بالذكاء الاصطناعي؟
- ChatGPT مقابل. Bing Chat: ما هو أفضل برنامج دردشة آلي يعمل بالذكاء الاصطناعي؟