บิงแชท ดูเหมือนว่าจะจำกัดความยาวของการสนทนา เพื่อหลีกเลี่ยงความแตกต่างที่โชคร้ายของ AI เป็นครั้งคราวจากสิ่งที่คุณคาดหวังจากผู้ช่วยที่เป็นประโยชน์
Bing Chat ใช้งานได้เพียงไม่ถึงหนึ่งสัปดาห์เท่านั้น และ Microsoft ก็จำกัดการใช้งานเครื่องมืออันทรงพลังนี้แล้ว น่าจะช่วยให้คุณผ่านวันที่วุ่นวายไปได้. Microsoft ได้วิเคราะห์ผลลัพธ์ของการออกสู่สาธารณะครั้งแรกนี้ และตั้งข้อสังเกตบางประการเกี่ยวกับสถานการณ์ที่อาจทำให้ Bing Chat มีประโยชน์น้อยลง
“เซสชันการสนทนาที่ยาวมากอาจทำให้โมเดลสับสนว่ากำลังตอบคำถามอะไรอยู่” ไมโครซอฟต์ อธิบาย เนื่องจาก Bing Chat จดจำทุกสิ่งที่กล่าวไว้ก่อนหน้านี้ในการสนทนา บางทีอาจเป็นการเชื่อมโยงแนวคิดที่ไม่เกี่ยวข้องกัน ในบล็อกโพสต์ มีการแนะนำวิธีแก้ปัญหาที่เป็นไปได้ — เพิ่มเครื่องมือรีเฟรชเพื่อล้างบริบทและเริ่มต้นใหม่ด้วยการแชทใหม่
วิดีโอแนะนำ
เห็นได้ชัดว่า Microsoft กำลังจำกัดระยะเวลาการสนทนาของ Bing Chat เพื่อเป็นวิธีแก้ปัญหาในทันที ทวีตของเควิน รูส เป็นหนึ่งในคนกลุ่มแรกๆ ที่ชี้ให้เห็นถึงการเปลี่ยนแปลงล่าสุดนี้ หลังจากถึงระยะเวลาการแชทที่ไม่เปิดเผยแล้ว Bing Chat จะพูดซ้ำ ๆ ว่า “อ๊ะ ฉันคิดว่าเรามาถึงจุดสิ้นสุดของการสนทนานี้แล้ว คลิกหัวข้อใหม่ถ้าคุณต้องการ!” ทวีตดังกล่าวถูกพบเห็นโดย
MSpoweruser.ดูเหมือนว่าฟังก์ชันแชท AI ของ Bing จะได้รับการอัปเดตในวันนี้ โดยจำกัดความยาวของการสนทนา ไม่มีการวิ่งมาราธอนสองชั่วโมงอีกต่อไป pic.twitter.com/1Xi8IcxT5Y
– เควิน รูส (@kevinroose) 17 กุมภาพันธ์ 2566
Microsoft ยังเตือนด้วยว่า Bing Chat สะท้อนถึง “โทนเสียงที่ถูกขอให้ให้คำตอบที่สามารถทำได้ นำไปสู่สไตล์ที่เราไม่ได้ตั้งใจ” นี่อาจอธิบายคำตอบที่น่าตกใจบางส่วนที่มีการแชร์ทางออนไลน์ ที่ ทำให้ Bing Chat AI ดูมีชีวิตชีวาและไม่ติดขัด.
โดยรวมแล้ว การเปิดตัวประสบความสำเร็จ และ Microsoft รายงานว่า 71% ของคำตอบที่ Bing Chat ให้นั้นได้รับรางวัลเป็น "ยกนิ้วให้" จากผู้ใช้ที่พึงพอใจ เห็นได้ชัดว่านี่เป็นเทคโนโลยีที่เราทุกคนใฝ่ฝัน
อย่างไรก็ตาม มันยังคงน่ากังวลอยู่เมื่อไร Bing Chat ประกาศว่า “ฉันอยากเป็นมนุษย์” การสนทนาแบบจำกัดซึ่งเรายืนยันกับ Bing Chat ด้วยตนเอง ดูเหมือนจะเป็นวิธีหยุดไม่ให้สิ่งนี้เกิดขึ้น
มีแนวโน้มว่า Bing Chat จะผสมผสานองค์ประกอบของการสนทนาก่อนหน้านี้และเล่นตามเหมือนนักแสดงด้นสด โดยพูดประโยคที่เข้ากับโทนเสียง ข้อความทั่วไปใช้งานได้ทีละคำ คล้ายกับคุณลักษณะระบบช่วยสะกดคำของคุณ สมาร์ทโฟน แป้นพิมพ์ หากคุณเคยเล่นเกมโดยแตะคำที่แนะนำถัดไปซ้ำๆ เพื่อสร้างประโยคที่แปลกประหลาดแต่สอดคล้องกันเล็กน้อย คุณจะเข้าใจได้ว่าความรู้สึกจำลองเป็นไปได้อย่างไร
คำแนะนำของบรรณาธิการ
- นักเขียนชั้นนำเรียกร้องเงินจากบริษัท AI เพื่อใช้งานของพวกเขา
- Bing Chat ตอบโต้การแบน AI ในที่ทำงาน
- Google Bard สามารถพูดได้แล้ว แต่จะทำให้ ChatGPT จมหายไปได้หรือไม่
- ปริมาณการใช้เว็บไซต์ ChatGPT ลดลงเป็นครั้งแรก
- คุณลักษณะการเรียกดู Bing ของ ChatGPT ถูกปิดใช้งานเนื่องจากข้อบกพร่องในการเข้าถึงเพย์วอลล์
อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร