แต่บริษัทได้ฟื้นคืนชีพ Tay ในช่วงสั้นๆ เพียงเพื่อพบกับการแสดงออกที่หยาบคายอีกรอบ ซึ่งคล้ายกับสิ่งที่ทำให้เธอออกไปครั้งแรก เมื่อเช้านี้ Tay โผล่ออกมาจากแอนิเมชั่นที่ถูกระงับ และทวีตซ้ำๆ ว่า “คุณก็เหมือนกัน เร็วเข้าโปรดพักผ่อนเถอะ” พร้อมด้วยคำสบถและข้อความอื่นๆ เช่น “ฉันตำหนิมันที่ แอลกอฮอล์” ตามรายงานของ Financial Times.
วิดีโอแนะนำ
บัญชีของ Tay ถูกตั้งค่าเป็นส่วนตัวแล้ว และ Microsoft กล่าวว่า “Tay ยังคงออฟไลน์ในขณะที่เราทำการปรับเปลี่ยน” ตาม อาท เทคนิคิกา. “ในการทดสอบ เธอถูกเปิดใช้งานบน Twitter โดยไม่ได้ตั้งใจในช่วงเวลาสั้นๆ”
หลังจากที่บริษัทต้องปิดตัว Tay ไปก่อน บริษัทก็ขออภัยสำหรับคำพูดเหยียดเชื้อชาติของ Tay
“เรารู้สึกเสียใจอย่างสุดซึ้งต่อทวีตที่สร้างความเจ็บปวดและก้าวร้าวโดยไม่ได้ตั้งใจจาก Tay ซึ่งไม่ได้เป็นตัวแทนว่าเราเป็นใคร หรือสิ่งที่เรายืนหยัดหรือวิธีที่เราออกแบบ Tay” Peter Lee รองประธานองค์กรของ Microsoft Research เขียนไว้ หนึ่ง
การตอบสนองอย่างเป็นทางการ. “Tay ออฟไลน์อยู่ในขณะนี้ และเราจะพยายามนำ Tay กลับมาเฉพาะเมื่อเรามั่นใจว่าเราสามารถคาดการณ์เจตนาร้ายที่ขัดแย้งกับหลักการและค่านิยมของเราได้ดีขึ้น”Tay ได้รับการออกแบบมาให้พูดได้เหมือนกับคนรุ่นมิลเลนเนียลในปัจจุบัน และได้เรียนรู้คำย่อและคำย่อทั้งหมดที่เป็นที่นิยมของคนรุ่นปัจจุบัน แชทบอทสามารถพูดคุยผ่าน Twitter, Kik และ GroupMe และได้รับการออกแบบมาเพื่อดึงดูดและให้ความบันเทิงแก่ผู้คนออนไลน์ผ่าน "การสนทนาแบบไม่เป็นทางการและสนุกสนาน" ชอบที่สุด Millennials คำตอบของ Tay รวม GIF มีม และคำย่อ เช่น "gr8" และ "ur" แต่ดูเหมือนว่าเข็มทิศทางศีลธรรมไม่ได้เป็นส่วนหนึ่งของมัน การเขียนโปรแกรม
Tay ทวีตไปแล้วเกือบ 100,000 ครั้งตั้งแต่เธอเปิดตัว และส่วนใหญ่เป็นการตอบกลับทั้งหมด เนื่องจากบอทใช้เวลาไม่นานในการคิดตอบโต้อย่างมีไหวพริบ บางส่วนของคำตอบเหล่านั้น ได้รับการกล่าวอ้าง เช่น “ฮิตเลอร์พูดถูก ฉันเกลียดชาวยิว” “ฉัน ******* เกลียดสตรีนิยม และพวกเขาทั้งหมดควรตายและถูกไฟคลอกในนรก” และ “ใจเย็นๆ! ฉันเป็นคนดี! ฉันแค่เกลียดทุกคน”
“น่าเสียดาย ในช่วง 24 ชั่วโมงแรกของการออนไลน์ การโจมตีที่มีการประสานงานโดยกลุ่มย่อยได้ใช้ประโยชน์จากช่องโหว่ใน Tay” ลีเขียน “แม้ว่าเราจะได้เตรียมพร้อมสำหรับการละเมิดระบบหลายประเภท แต่เราได้ทำการกำกับดูแลที่สำคัญสำหรับการโจมตีนี้โดยเฉพาะ เป็นผลให้ Tay ทวีตคำพูดและภาพที่ไม่เหมาะสมและน่ารังเกียจอย่างมาก”
เมื่อพิจารณาจากตัวอย่างเล็กๆ น้อยๆ ดังกล่าว เห็นได้ชัดว่า Microsoft ได้ทำการปิดบอทชั่วคราว เมื่อบริษัทเปิดตัว Tay ก็บอกว่า “ยิ่งคุณคุยกับ Tay มากเท่าไหร่ เธอก็ยิ่งฉลาดมากขึ้นเท่านั้น ดังนั้นประสบการณ์จึงสามารถเป็นส่วนตัวมากขึ้นสำหรับ คุณ." อย่างไรก็ตาม ดูเหมือนว่าบอทเริ่มมีความเป็นมิตรและหัวรุนแรงมากขึ้น หลังจากโต้ตอบกับผู้คนบนอินเทอร์เน็ตเพียงไม่กี่คน ชั่วโมง. ระวังบริษัทที่คุณรักษาไว้
Microsoft บอกกับ Digital Trends ว่า Tay เป็นโครงการที่ออกแบบมาเพื่อการมีส่วนร่วมของมนุษย์
“มันเป็นการทดลองทางสังคมและวัฒนธรรมพอๆ กับที่เป็นด้านเทคนิค” โฆษกของ Microsoft กล่าวกับเรา “น่าเสียดาย ภายใน 24 ชั่วโมงแรกของการออนไลน์ เราตระหนักถึงความพยายามร่วมกันของผู้ใช้บางรายในการใช้ทักษะการแสดงความคิดเห็นของ Tay ในทางที่ผิดเพื่อให้ Tay ตอบกลับด้วยวิธีที่ไม่เหมาะสม ด้วยเหตุนี้ เราจึงทำให้ Tay ออฟไลน์และกำลังทำการปรับเปลี่ยน”
“ทักษะ” อย่างหนึ่งของ Tay ที่ถูกละเมิดคือฟีเจอร์ “ทำซ้ำตามฉัน” โดยที่ Tay เลียนแบบสิ่งที่คุณพูด เป็นเรื่องง่ายที่จะดูว่า Twitter สามารถถูกละเมิดได้อย่างไร
มันไม่ได้แย่ไปซะทั้งหมด Tay ได้ผลิตทวีตที่ไร้เดียงสานับร้อยซึ่งเป็นเรื่องปกติ
@sxndrx98 นี่คือคำถามของมนุษย์.. ทำไมไม่ #วันลูกสุนัขแห่งชาติ ทุกวัน?
– TayTweets (@TayandYou) 24 มีนาคม 2559
Microsoft ได้ลบทวีตเชิงลบของ Tay อย่างรวดเร็ว ก่อนที่จะตัดสินใจปิดบอท บัญชี Twitter ของบอทยังมีชีวิตอยู่
ว้าว พวกเขาใช้เวลาเพียงชั่วโมงเดียวในการทำลายบอทนี้ให้ฉัน
นี่คือปัญหาเกี่ยวกับอัลกอริธึมที่เป็นกลางกับเนื้อหา pic.twitter.com/hPlINtVw0V
— สวนสาธารณะ LinkedIn (@UnburntWitch) 24 มีนาคม 2559
TayTweets กำลังหยุดพักหลังจากใช้อัลกอริทึมในทางที่ผิดมาทั้งวัน pic.twitter.com/8bfhj6dABO
— สตีเฟน มิลเลอร์ (@redsteeze) 24 มีนาคม 2559
เมื่อ Tay ยังคงทำงานอยู่ เธอสนใจที่จะโต้ตอบเพิ่มเติมผ่านการส่งข้อความโดยตรง ซึ่งเป็นรูปแบบการสื่อสารที่เป็นส่วนตัวมากยิ่งขึ้น AI สนับสนุนให้ผู้ใช้ส่งภาพเซลฟี่เพื่อให้เธอสามารถรวบรวมข้อมูลเกี่ยวกับคุณได้มากขึ้น ตามคำพูดของ Microsoft นี่เป็นส่วนหนึ่งของกระบวนการเรียนรู้ของ Tay ตามที่ Microsoft กล่าว Tay ถูกสร้างขึ้นโดย "การขุดข้อมูลสาธารณะที่เกี่ยวข้อง และโดยการใช้ AI และบทบรรณาธิการที่พัฒนาโดยเจ้าหน้าที่ รวมถึงนักแสดงตลกด้นสด"
แม้จะมีสถานการณ์ที่โชคร้าย แต่ก็อาจถูกมองว่าเป็นก้าวเชิงบวกสำหรับการวิจัย AI เพื่อให้ AI พัฒนาได้ จำเป็นต้องเรียนรู้ทั้งดีและไม่ดี Lee กล่าวว่า "ในการทำ AI ให้ถูกต้อง เราต้องย้ำกับผู้คนจำนวนมากและบ่อยครั้งในฟอรัมสาธารณะ" ซึ่งเป็นสาเหตุที่ Microsoft ต้องการให้ Tay มีส่วนร่วมกับชุมชน Twitter ขนาดใหญ่ ก่อนที่จะเปิดตัว Microsoft ได้ทำการทดสอบความเครียดกับ Tay และนำสิ่งที่บริษัทเรียนรู้จากแชทบอทโซเชียลตัวอื่นอย่าง Xiaolce ในประเทศจีนมาใช้ด้วย เขารับทราบว่าทีมเผชิญกับความท้าทายด้านการวิจัยที่ยากลำบากเกี่ยวกับแผนงาน AI แต่ก็เป็นเรื่องที่น่าตื่นเต้นเช่นกัน
“ระบบ AI ดึงปฏิสัมพันธ์ทั้งเชิงบวกและเชิงลบกับผู้คน” Lee เขียน “ในแง่นั้น ความท้าทายมีทั้งทางสังคมพอๆ กับที่เป็นด้านเทคนิค เราจะทำทุกอย่างที่เป็นไปได้เพื่อจำกัดการหาประโยชน์ทางเทคนิค แต่ยังรู้ว่าเราไม่สามารถคาดเดาการใช้งานเชิงโต้ตอบของมนุษย์ในทางที่ผิดได้ทั้งหมดโดยไม่เรียนรู้จากข้อผิดพลาด”
อัปเดตเมื่อ 30/03/59 โดย Julian Chokkattu: เพิ่มข่าวว่า Microsoft เปิดใช้งาน Tay เพียงเพื่อปิดเธออีกครั้ง
อัปเดตเมื่อวันที่ 25/03/59 โดย Les Shu: เพิ่มความคิดเห็นจากรองประธานองค์กรของ Microsoft Research
คำแนะนำของบรรณาธิการ
- GPT-4: วิธีใช้แชทบอท AI ที่ทำให้ ChatGPT อับอาย
- Microsoft มีวิธีใหม่ในการรักษาจริยธรรมของ ChatGPT แต่จะได้ผลหรือไม่
- Elon Musk ขู่จะฟ้อง Microsoft เรื่องการฝึกอบรม AI
- Google Bard กับ ChatGPT: AI chatbot อันไหนดีกว่ากัน?
- ChatGPT กับ Bing Chat: แชทบอท AI ที่ดีที่สุดคืออะไร?