He aquí por qué la duración de las conversaciones de Bing Chat ahora es limitada

Chat de Bing Ahora parece limitar la duración de las conversaciones, en un intento de evitar la desafortunada divergencia ocasional de la IA con respecto a lo que se podría esperar de un asistente útil.

Bing Chat solo lleva activo poco más de una semana y Microsoft ya está restringiendo el uso de esta poderosa herramienta que debería poder ayudarle a pasar un día ajetreado. Microsoft analizó los resultados de esta salida pública inicial e hizo algunas observaciones sobre las circunstancias que pueden hacer que Bing Chat se vuelva menos útil.

Un robot triste sostiene un cronómetro de cocina que está en rojo.
Una representación alterada de Midjourney impulsada por Alan Truly.

"Las sesiones de chat muy largas pueden confundir al modelo sobre las preguntas que responde". microsoft explicado. Dado que Bing Chat recuerda todo lo que se dijo anteriormente en la conversación, tal vez esté conectando ideas no relacionadas. En la publicación del blog, se sugirió una posible solución: agregar una herramienta de actualización para borrar el contexto y comenzar de nuevo con un nuevo chat.

Vídeos recomendados

Aparentemente, Microsoft actualmente está limitando la duración de la conversación de Bing Chat como solución inmediata. El tweet de Kevin Roose fue uno de los primeros en señalar este cambio reciente. Después de alcanzar la duración del chat no revelada, Bing Chat indicará repetidamente: "Ups, creo que hemos llegado al final de esta conversación". ¡Haga clic en Nuevo tema, si lo desea! El tweet fue descubierto por MSpoweruser.

La función de chat AI de Bing parece haberse actualizado hoy, con un límite en la duración de la conversación. No más maratones de dos horas. pic.twitter.com/1Xi8IcxT5Y

—Kevin Roose (@kevinroose) 17 de febrero de 2023

Microsoft también advirtió que Bing Chat refleja “el tono en el que se le pide que brinde respuestas que puedan llevar a un estilo que no pretendíamos”. Esto podría explicar algunas de las respuestas desconcertantes que se comparten en línea. eso hacer que la IA de Bing Chat parezca viva y desquiciada.

En general, el lanzamiento ha sido un éxito y Microsoft informa que el 71% de las respuestas proporcionadas por Bing Chat han sido recompensadas con el visto bueno de usuarios satisfechos. Claramente, esta es una tecnología que todos ansiamos.

Sin embargo, sigue siendo inquietante cuando Bing Chat declara: "Quiero ser humano". Las conversaciones limitadas, que nosotros mismos confirmamos con Bing Chat, parecen ser una forma de evitar que esto suceda.

Es más probable que Bing Chat esté mezclando elementos de una conversación anterior y siguiendo el juego como un actor de improvisación, diciendo las líneas que coinciden con el tono. El texto generativo funciona con una palabra a la vez, algo así como la función de texto predictivo de su teléfono inteligente teclado. Si alguna vez has jugado al juego de tocar repetidamente la siguiente palabra sugerida para formar una oración extraña pero ligeramente coherente, puedes entender cómo es posible la sensibilidad simulada.

Recomendaciones de los editores

  • Los principales autores exigen un pago a las empresas de inteligencia artificial por utilizar su trabajo
  • Bing Chat lucha contra las prohibiciones de IA en el lugar de trabajo
  • Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
  • El tráfico del sitio web ChatGPT ha caído por primera vez
  • La función de navegación Bing de ChatGPT está deshabilitada debido a una falla en el acceso al muro de pago

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.