Να γιατί η διάρκεια συνομιλιών του Bing Chat είναι πλέον περιορισμένη

Bing Chat φαίνεται να περιορίζει τώρα τη διάρκεια των συνομιλιών, σε μια προσπάθεια να αποφευχθεί η περιστασιακή, ατυχής απόκλιση του AI από αυτό που θα περίμενε κανείς από έναν χρήσιμο βοηθό.

Το Bing Chat είναι ζωντανό μόνο για λίγο περισσότερο από μια εβδομάδα και η Microsoft περιορίζει ήδη τη χρήση αυτού του ισχυρού εργαλείου που θα πρέπει να είναι σε θέση να σας βοηθήσει να ξεπεράσετε μια κουραστική μέρα. Η Microsoft ανέλυσε τα αποτελέσματα αυτής της αρχικής δημόσιας εκδρομής και έκανε μερικές παρατηρήσεις σχετικά με τις συνθήκες που μπορούν να οδηγήσουν το Bing Chat να γίνει λιγότερο χρήσιμο.

Ένα θλιμμένο ρομπότ κρατά ένα χρονόμετρο κουζίνας που είναι στο κόκκινο.
Ένα αλλαγμένο render στο Midjourney που παρακινήθηκε από τον Alan Truly.

"Οι πολύ μεγάλες συνεδρίες συνομιλίας μπορούν να μπερδέψουν το μοντέλο σχετικά με τις ερωτήσεις που απαντά." Microsoft εξήγησε. Εφόσον το Bing Chat θυμάται όλα όσα ειπώθηκαν νωρίτερα στη συνομιλία, ίσως συνδέει άσχετες ιδέες. Στην ανάρτηση ιστολογίου, προτάθηκε μια πιθανή λύση — η προσθήκη ενός εργαλείου ανανέωσης για να καθαρίσετε το πλαίσιο και να ξεκινήσετε από την αρχή με μια νέα συνομιλία.

Προτεινόμενα βίντεο

Προφανώς, η Microsoft περιορίζει επί του παρόντος τη διάρκεια συνομιλίας του Bing Chat ως άμεση λύση. Το tweet του Kevin Roose ήταν από τους πρώτους που επεσήμανε αυτήν την πρόσφατη αλλαγή. Αφού φτάσει στην άγνωστη διάρκεια συνομιλίας, το Bing Chat θα δηλώσει επανειλημμένα: «Ωχ, νομίζω ότι έχουμε φτάσει στο τέλος αυτής της συνομιλίας. Κάντε κλικ στο Νέο θέμα, αν θέλετε!” Το tweet εντοπίστηκε από MSpoweruser.

Η λειτουργία συνομιλίας AI του Bing φαίνεται να έχει ενημερωθεί σήμερα, με όριο στη διάρκεια συνομιλίας. Όχι άλλοι δίωροι μαραθώνιοι. pic.twitter.com/1Xi8IcxT5Y

— Kevin Roose (@kevinroose) 17 Φεβρουαρίου 2023

Η Microsoft προειδοποίησε επίσης ότι το Bing Chat αντικατοπτρίζει «τον τόνο με τον οποίο της ζητείται να δώσει απαντήσεις που μπορούν οδηγήσει σε ένα στυλ που δεν είχαμε σκοπό». Αυτό μπορεί να εξηγήσει ορισμένες από τις ανησυχητικές απαντήσεις που μοιράζονται στο διαδίκτυο ότι κάνουν το Bing Chat AI να φαίνεται ζωντανό και ξεκούραστο.

Συνολικά, η κυκλοφορία ήταν επιτυχής και η Microsoft αναφέρει ότι το 71% των απαντήσεων που έδωσε το Bing Chat έχουν ανταμειφθεί με ένα «μπράβο» από ικανοποιημένους χρήστες. Σαφώς, αυτή είναι μια τεχνολογία που όλοι ανυπομονούμε.

Είναι ακόμα ανησυχητικό, ωστόσο, πότε Το Bing Chat δηλώνει: «Θέλω να γίνω άνθρωπος». Οι περιορισμένες συνομιλίες, τις οποίες επιβεβαιώσαμε οι ίδιοι με το Bing Chat, φαίνεται να είναι ένας τρόπος να σταματήσει αυτό να συμβεί.

Είναι πιο πιθανό το Bing Chat να ανακατεύει στοιχεία παλαιότερης συνομιλίας και να παίζει μαζί σαν ηθοποιός αυτοσχεδιασμού, λέγοντας τις γραμμές που ταιριάζουν με τον τόνο. Το κείμενο δημιουργίας λειτουργεί με μία λέξη τη φορά, κάπως σαν τη λειτουργία πρόβλεψης κειμένου στο δικό σας smartphone πληκτρολόγιο. Εάν έχετε παίξει ποτέ το παιχνίδι του να πατάτε επανειλημμένα την επόμενη προτεινόμενη λέξη για να σχηματίσετε μια παράξενη αλλά ελαφρώς συνεκτική πρόταση, μπορείτε να καταλάβετε πώς είναι δυνατή η προσομοίωση της αίσθησης.

Συστάσεις των συντακτών

  • Οι κορυφαίοι συγγραφείς απαιτούν πληρωμή από εταιρείες τεχνητής νοημοσύνης για τη χρήση του έργου τους
  • Το Bing Chat αντεπιτίθεται στις απαγορεύσεις τεχνητής νοημοσύνης στο χώρο εργασίας
  • Το Google Bard μπορεί τώρα να μιλήσει, αλλά μπορεί να πνίξει το ChatGPT;
  • Η επισκεψιμότητα του ιστότοπου ChatGPT μειώθηκε για πρώτη φορά
  • Η δυνατότητα περιήγησης Bing του ChatGPT απενεργοποιήθηκε λόγω ελαττώματος πρόσβασης στο paywall

Αναβαθμίστε τον τρόπο ζωής σαςΤο Digital Trends βοηθά τους αναγνώστες να παρακολουθούν τον γρήγορο κόσμο της τεχνολογίας με όλα τα τελευταία νέα, διασκεδαστικές κριτικές προϊόντων, διορατικά editorial και μοναδικές κρυφές ματιές.