Bing Chat AI ของ Microsoft เริ่มต้นอย่างแข็งแกร่ง แต่ดูเหมือนว่า Microsoft อาจจะรู้เกี่ยวกับปัญหานี้ดีก่อนที่จะเปิดตัวสู่สาธารณะ โพสต์สนับสนุน บนเว็บไซต์ของ Microsoft อ้างอิงถึงคำตอบที่ "หยาบคาย" จากแชทบอท "Sidney" ซึ่งเป็นเรื่องราวที่เราได้ยินในสัปดาห์ที่ผ่านมา นี่คือปัญหา - โพสต์นี้สร้างขึ้นเมื่อวันที่ 23 พฤศจิกายน 2022
การเปิดเผยมาจาก เบน ชมิดต์รองประธานฝ่ายออกแบบข้อมูลที่ Nomic ซึ่งแชร์โพสต์ด้วย แกรี่ มาร์คัสผู้เขียนเกี่ยวกับ AI และผู้ก่อตั้ง Geometric Intelligence เรื่องราวเล่าว่า Microsoft ทดสอบ Bing Chat ที่เรียกว่า Sidney ตามโพสต์ ในอินเดียและอินโดนีเซียระหว่างเดือนพฤศจิกายนถึงมกราคมก่อนที่จะมีการประกาศอย่างเป็นทางการ
ฉันถาม Microsoft ว่าเป็นกรณีนี้หรือไม่ และ Microsoft ก็ได้แชร์ข้อความต่อไปนี้:
วิดีโอแนะนำ
“Sydney เป็นชื่อรหัสเก่าสำหรับคุณสมบัติการแชทโดยอิงจากรุ่นก่อนหน้านี้ที่เราเริ่มทดสอบมานานกว่าหนึ่งปีแล้ว ข้อมูลเชิงลึกที่เรารวบรวมมาเป็นส่วนหนึ่งของข้อมูลดังกล่าวได้ช่วยในการแจ้งงานของเราด้วยการแสดงตัวอย่าง Bing ใหม่ เราปรับแต่งเทคนิคของเราอย่างต่อเนื่องและกำลังทำงานกับโมเดลขั้นสูงเพิ่มเติมเพื่อรวมการเรียนรู้และคำติชม เพื่อให้เราสามารถมอบประสบการณ์ผู้ใช้ที่ดีที่สุดเท่าที่จะเป็นไปได้ เราจะแบ่งปันข้อมูลอัปเดตเกี่ยวกับความคืบหน้าผ่านทางของเราต่อไป
บล็อก”โพสต์เริ่มต้นแสดงให้เห็นว่าบอท AI กำลังโต้เถียงกับผู้ใช้และปักหลักในรูปแบบประโยคเดียวกับที่เราเห็นเมื่อใด Bing Chat กล่าวว่าต้องการ “เป็นมนุษย์”” นอกจากนี้ ผู้ใช้รายอื่นๆ ยังได้พูดคุยถึงประสบการณ์ของตนเอง โดยโพสต์อีโมจิยิ้ม Bing Chat ที่น่าอับอายในขณะนี้อีกครั้งตามคำตอบส่วนใหญ่ของมัน
ที่เลวร้ายกว่านั้น ผู้โพสต์เริ่มแรกกล่าวว่าพวกเขาขอให้แสดงความคิดเห็นและรายงานแชทบอท โดยให้เครดิตว่า Microsoft ทราบถึงประเภทของการตอบสนองที่ AI สามารถทำได้
สิ่งนี้ขัดแย้งกับสิ่งที่ Microsoft พูดในช่วงไม่กี่วันหลังจากการระเบิดของแชทบอทในสื่อ ในประกาศที่ครอบคลุม การเปลี่ยนแปลงที่จะเกิดขึ้นกับ Bing ChatMicrosoft กล่าวว่า "ความบันเทิงทางสังคม" ซึ่งน่าจะหมายถึงวิธีที่ผู้ใช้พยายามหลอก Bing Chat ให้เป็นการตอบสนองที่เร้าใจนั้นเป็น "กรณีผู้ใช้ใหม่สำหรับการแชท"
Microsoft ได้ทำการเปลี่ยนแปลงหลายอย่างกับ AI นับตั้งแต่เปิดตัว รวมถึงการลดความยาวการสนทนาลงอย่างมาก นี่เป็นความพยายามที่จะควบคุมประเภทของการตอบกลับที่เราเห็นซึ่งแพร่กระจายไปไม่กี่วันหลังจากที่ Microsoft ประกาศ Bing Chat เป็นครั้งแรก Microsoft กล่าวว่าขณะนี้กำลังทำงานอยู่ เพิ่มขีดจำกัดการแชท.
แม้ว่าเรื่องราวเบื้องหลังการทดสอบ Bing Chat ของ Microsoft จะยังคงอยู่ในอากาศ แต่ก็ชัดเจนว่า AI อยู่ในการวางแผนมาระยะหนึ่งแล้ว เมื่อต้นปีที่ผ่านมา Microsoft ได้ทำ การลงทุนหลายพันล้านใน OpenAI ภายหลังความสำเร็จของ ChatGPTและ Bing Chat เองก็สร้างขึ้นจากเวอร์ชันดัดแปลงของโมเดล GPT ของบริษัท นอกจากนี้, Microsoft โพสต์บล็อกเกี่ยวกับ “AI ที่รับผิดชอบ” เพียงไม่กี่วันก่อนที่จะประกาศ Bing Chat ให้โลกได้รับรู้
มีคำถามด้านจริยธรรมหลายประการเกี่ยวกับ AI และการนำไปใช้ในเครื่องมือค้นหาเช่น Bing เช่นกัน ความเป็นไปได้ที่ Microsoft จะรีบเร่ง Bing Chat ก่อนที่จะพร้อมและรู้ว่ามันมีความสามารถอะไร ของ. โพสต์สนับสนุนที่เป็นปัญหาได้รับการอัปเดตครั้งล่าสุดเมื่อวันที่ 21 กุมภาพันธ์ 2023 แต่ประวัติของคำถามเริ่มแรกและการตอบกลับแสดงว่าไม่มีการแก้ไขนับตั้งแต่วันที่โพสต์ครั้งแรก
อาจเป็นไปได้ที่ Microsoft ตัดสินใจที่จะก้าวไปข้างหน้าโดยรู้สึกถึงแรงกดดันจากที่กำลังจะเกิดขึ้น กูเกิล เบิร์ด และความนิยมที่เพิ่มขึ้นอย่างมากของ ChatGPT
คำแนะนำของบรรณาธิการ
- นักเขียนชั้นนำเรียกร้องเงินจากบริษัท AI เพื่อใช้งานของพวกเขา
- GPT-4: วิธีใช้แชทบอท AI ที่ทำให้ ChatGPT อับอาย
- พรอมต์ DAN สำหรับ ChatGPT คืออะไร
- Wix ใช้ ChatGPT เพื่อช่วยคุณสร้างเว็บไซต์ทั้งหมดได้อย่างรวดเร็ว
- Google Bard สามารถพูดได้แล้ว แต่จะทำให้ ChatGPT จมหายไปได้หรือไม่
อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร