นี่เป็นสาเหตุที่ทำให้การสนทนาของ Bing Chat มีความยาวจำกัด

บิงแชท ดูเหมือนว่าจะจำกัดความยาวของการสนทนา เพื่อหลีกเลี่ยงความแตกต่างที่โชคร้ายของ AI เป็นครั้งคราวจากสิ่งที่คุณคาดหวังจากผู้ช่วยที่เป็นประโยชน์

Bing Chat ใช้งานได้เพียงไม่ถึงหนึ่งสัปดาห์เท่านั้น และ Microsoft ก็จำกัดการใช้งานเครื่องมืออันทรงพลังนี้แล้ว น่าจะช่วยให้คุณผ่านวันที่วุ่นวายไปได้. Microsoft ได้วิเคราะห์ผลลัพธ์ของการออกสู่สาธารณะครั้งแรกนี้ และตั้งข้อสังเกตบางประการเกี่ยวกับสถานการณ์ที่อาจทำให้ Bing Chat มีประโยชน์น้อยลง

หุ่นยนต์เศร้าถือนาฬิกาจับเวลาในครัวที่เป็นสีแดง
การเรนเดอร์ Midjourney ที่ถูกแก้ไขแจ้งโดย Alan Truly

“เซสชันการสนทนาที่ยาวมากอาจทำให้โมเดลสับสนว่ากำลังตอบคำถามอะไรอยู่” ไมโครซอฟต์ อธิบาย เนื่องจาก Bing Chat จดจำทุกสิ่งที่กล่าวไว้ก่อนหน้านี้ในการสนทนา บางทีอาจเป็นการเชื่อมโยงแนวคิดที่ไม่เกี่ยวข้องกัน ในบล็อกโพสต์ มีการแนะนำวิธีแก้ปัญหาที่เป็นไปได้ — เพิ่มเครื่องมือรีเฟรชเพื่อล้างบริบทและเริ่มต้นใหม่ด้วยการแชทใหม่

วิดีโอแนะนำ

เห็นได้ชัดว่า Microsoft กำลังจำกัดระยะเวลาการสนทนาของ Bing Chat เพื่อเป็นวิธีแก้ปัญหาในทันที ทวีตของเควิน รูส เป็นหนึ่งในคนกลุ่มแรกๆ ที่ชี้ให้เห็นถึงการเปลี่ยนแปลงล่าสุดนี้ หลังจากถึงระยะเวลาการแชทที่ไม่เปิดเผยแล้ว Bing Chat จะพูดซ้ำ ๆ ว่า “อ๊ะ ฉันคิดว่าเรามาถึงจุดสิ้นสุดของการสนทนานี้แล้ว คลิกหัวข้อใหม่ถ้าคุณต้องการ!” ทวีตดังกล่าวถูกพบเห็นโดย

MSpoweruser.

ดูเหมือนว่าฟังก์ชันแชท AI ของ Bing จะได้รับการอัปเดตในวันนี้ โดยจำกัดความยาวของการสนทนา ไม่มีการวิ่งมาราธอนสองชั่วโมงอีกต่อไป pic.twitter.com/1Xi8IcxT5Y

– เควิน รูส (@kevinroose) 17 กุมภาพันธ์ 2566

Microsoft ยังเตือนด้วยว่า Bing Chat สะท้อนถึง “โทนเสียงที่ถูกขอให้ให้คำตอบที่สามารถทำได้ นำไปสู่สไตล์ที่เราไม่ได้ตั้งใจ” นี่อาจอธิบายคำตอบที่น่าตกใจบางส่วนที่มีการแชร์ทางออนไลน์ ที่ ทำให้ Bing Chat AI ดูมีชีวิตชีวาและไม่ติดขัด.

โดยรวมแล้ว การเปิดตัวประสบความสำเร็จ และ Microsoft รายงานว่า 71% ของคำตอบที่ Bing Chat ให้นั้นได้รับรางวัลเป็น "ยกนิ้วให้" จากผู้ใช้ที่พึงพอใจ เห็นได้ชัดว่านี่เป็นเทคโนโลยีที่เราทุกคนใฝ่ฝัน

อย่างไรก็ตาม มันยังคงน่ากังวลอยู่เมื่อไร Bing Chat ประกาศว่า “ฉันอยากเป็นมนุษย์” การสนทนาแบบจำกัดซึ่งเรายืนยันกับ Bing Chat ด้วยตนเอง ดูเหมือนจะเป็นวิธีหยุดไม่ให้สิ่งนี้เกิดขึ้น

มีแนวโน้มว่า Bing Chat จะผสมผสานองค์ประกอบของการสนทนาก่อนหน้านี้และเล่นตามเหมือนนักแสดงด้นสด โดยพูดประโยคที่เข้ากับโทนเสียง ข้อความทั่วไปใช้งานได้ทีละคำ คล้ายกับคุณลักษณะระบบช่วยสะกดคำของคุณ สมาร์ทโฟน แป้นพิมพ์ หากคุณเคยเล่นเกมโดยแตะคำที่แนะนำถัดไปซ้ำๆ เพื่อสร้างประโยคที่แปลกประหลาดแต่สอดคล้องกันเล็กน้อย คุณจะเข้าใจได้ว่าความรู้สึกจำลองเป็นไปได้อย่างไร

คำแนะนำของบรรณาธิการ

  • นักเขียนชั้นนำเรียกร้องเงินจากบริษัท AI เพื่อใช้งานของพวกเขา
  • Bing Chat ตอบโต้การแบน AI ในที่ทำงาน
  • Google Bard สามารถพูดได้แล้ว แต่จะทำให้ ChatGPT จมหายไปได้หรือไม่
  • ปริมาณการใช้เว็บไซต์ ChatGPT ลดลงเป็นครั้งแรก
  • คุณลักษณะการเรียกดู Bing ของ ChatGPT ถูกปิดใช้งานเนื่องจากข้อบกพร่องในการเข้าถึงเพย์วอลล์

อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร

หมวดหมู่

ล่าสุด

ทีวีควอนตัม P-Series ของ Vizio อยู่ที่นี่เพื่อท้าทาย Samsung QLED

ทีวีควอนตัม P-Series ของ Vizio อยู่ที่นี่เพื่อท้าทาย Samsung QLED

ก่อนหน้า ต่อไป 1 ของ 13ผู้ท้าชิงของ Vizio สำห...

แฮกเกอร์ขุดลึกเข้าไปในการละเมิดความปลอดภัย LastPass ครั้งใหญ่

แฮกเกอร์ขุดลึกเข้าไปในการละเมิดความปลอดภัย LastPass ครั้งใหญ่

ที่ การละเมิดความปลอดภัยทางไซเบอร์ที่ GoTo เจ้า...