La IA de Bing Chat de Microsoft ha tenido un comienzo difícil, pero parece que Microsoft pudo haber conocido los problemas mucho antes de su debut público. un puesto de apoyo en el sitio web de Microsoft hace referencia a respuestas "groseras" del chatbot "Sidney", que es una historia que hemos estado escuchando durante la semana pasada. Aquí está el problema: la publicación se realizó el 23 de noviembre de 2022.
La revelación proviene de Ben Schmidt, vicepresidente de diseño de información de Nomic, quien compartió la publicación con Gary Marcos, autor que cubre IA y fundador de Inteligencia Geométrica. La historia cuenta que Microsoft probó Bing Chat (llamado Sidney, según la publicación) en India e Indonesia en algún momento entre noviembre y enero antes de hacer el anuncio oficial.
Le pregunté a Microsoft si ese era el caso y compartió la siguiente declaración:
Vídeos recomendados
“Sydney es un antiguo nombre en clave para una función de chat basada en modelos anteriores que comenzamos a probar hace más de un año. Los conocimientos que recopilamos como parte de esto nos han ayudado a informar nuestro trabajo con la nueva vista previa de Bing. Seguimos perfeccionando nuestras técnicas y estamos trabajando en modelos más avanzados para incorporar los aprendizajes y los comentarios para que podamos ofrecer la mejor experiencia de usuario posible. Continuaremos compartiendo actualizaciones sobre el progreso a través de nuestro
Blog.”La publicación inicial muestra al robot de IA discutiendo con el usuario y adoptando las mismas formas de oración que vimos cuando Bing Chat dijo que quería "ser humano".” Más adelante en el hilo, otros usuarios intervinieron con sus propias experiencias y volvieron a publicar el ahora infame emoji sonriente. Bing Chat sigue la mayoría de sus respuestas.
Para empeorar las cosas, el cartel inicial decía que pidieron proporcionar comentarios e informar sobre el chatbot, dando cierta credibilidad a que Microsoft estaba al tanto de los tipos de respuestas que su IA era capaz de dar.
Esto va en contra de lo que dijo Microsoft en los días posteriores a la explosión del chatbot en los medios. En un anuncio que cubre próximos cambios en Bing Chat, Microsoft dijo que el "entretenimiento social", que presumiblemente se refiere a las formas en que los usuarios han intentado engañar a Bing Chat para que responda provocativamente, era un "nuevo caso de usuario para el chat".
Microsoft ha realizado varios cambios en la IA desde su lanzamiento, incluida una reducción considerable de la duración de las conversaciones. Este es un esfuerzo por frenar los tipos de respuestas que vimos circular unos días después de que Microsoft anunciara por primera vez Bing Chat. Microsoft dice que actualmente está trabajando en aumentar los límites de chat.
Aunque la historia detrás de las pruebas de Bing Chat por parte de Microsoft sigue en el aire, está claro que la IA había estado en la planificación durante un tiempo. A principios de este año, Microsoft hizo un Inversión multimillonaria en OpenAI tras el éxito de ChatGPT, y Bing Chat se basa en una versión modificada del modelo GPT de la empresa. Además, Microsoft publicó un blog sobre "IA responsable" apenas unos días antes de anunciar Bing Chat al mundo.
Hay varias cuestiones éticas en torno a la IA y su uso en un motor de búsqueda como Bing, así como la posibilidad de que Microsoft lanzara Bing Chat antes de que estuviera listo y sabiendo de qué era capaz de. La publicación de soporte en cuestión se actualizó por última vez el 21 de febrero de 2023, pero el historial de la pregunta inicial y las respuestas muestran que no han sido revisadas desde su fecha de publicación original.
Es posible que Microsoft decidiera seguir adelante de todos modos, sintiendo la presión de la próxima bardo de google y el trascendental aumento de la popularidad de ChatGPT.
Recomendaciones de los editores
- Los principales autores exigen un pago a las empresas de inteligencia artificial por utilizar su trabajo
- GPT-4: cómo utilizar el chatbot de IA que avergüenza a ChatGPT
- ¿Qué es un mensaje DAN para ChatGPT?
- Wix usa ChatGPT para ayudarte a crear rápidamente un sitio web completo
- Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.