El propietario de Facebook, Meta, planea introducir chatbots con distintas personalidades en su aplicación de redes sociales. El lanzamiento podría llegar tan pronto como este mes de septiembre y supondría un reto para rivales como ChatGPT, pero existe la preocupación de que podría haber serias implicaciones para la privacidad de los usuarios.
Contenido
- Preocupaciones sobre la privacidad
- un gran riesgo
La idea viene de la Tiempos financieros, que informa que la medida es un intento de impulsar el compromiso con Facebook usuarios La nueva herramienta podría hacer esto proporcionando nuevas capacidades de búsqueda o recomendando contenido, todo a través de debates similares a los humanos.
Según fuentes citadas por el Financial Times, los chatbots asumirán diferentes personajes, incluyendo “uno que emula a Abraham Lincoln y otro que aconseja sobre opciones de viaje al estilo de un tablista."
Relacionado
- Apple ha estado trabajando en secreto en un rival de ChatGPT durante años
- Los piratas informáticos están utilizando IA para crear malware vicioso, dice el FBI
- He aquí por qué la gente piensa que GPT-4 podría volverse más tonto con el tiempo
Esta no sería la primera vez que vemos a los chatbots asumir sus propias personalidades o conversar al estilo de las personas famosas. El Chatbot de Character.ai, por ejemplo, puede adoptar docenas de personalidades diferentes, incluidas las de celebridades y personajes históricos.
Vídeos recomendados
Preocupaciones sobre la privacidad
A pesar de la promesa que podrían mostrar los chatbots de Meta, también han surgido temores sobre la cantidad de datos que probablemente recopilarán, especialmente considerando que Facebook tiene un registro abismal en la protección de la privacidad del usuario.
Ravit Dotan, un asesor e investigador de ética de IA, fue citado por el Financial Times diciendo: “Una vez que los usuarios interactúan con un chatbot, realmente expone mucho más de sus datos a la empresa, para que la empresa pueda hacer lo que quiera con eso datos."
Esto no solo plantea la posibilidad de violaciones de privacidad de gran alcance, sino que también permite la posibilidad de "manipulación y empujón" de los usuarios, agregó Dotan.
un gran riesgo
Otros chatbots como ChatGPT y Bing Chat han tenido una historia de "alucinaciones", o momentos en los que comparten información incorrecta, o incluso información errónea. El daño potencial causado por la desinformación y el sesgo podría ser mucho mayor en Facebook, que tiene casi cuatro mil millones de usuarios, en comparación con los chatbots rivales.
Los intentos anteriores de Meta con los chatbots han tenido malos resultados, y BlenderBot 2 y BlenderBot 3 de la compañía se convirtieron rápidamente en contenido engañoso y discurso de odio incendiario. Eso podría no dar a los usuarios muchas esperanzas para el último esfuerzo de Meta.
Con septiembre acercándose rápidamente, es posible que no tengamos mucho tiempo para ver si Facebook es capaz de superar estos obstáculos, o si tendremos otro lanzamiento plagado de alucinaciones similar a los sufridos en otras partes del mundo. industria. Pase lo que pase, será interesante verlo.
Recomendaciones de los editores
- ChatGPT: las últimas noticias, controversias y consejos que necesita saber
- Según los informes, el rival ChatGPT de Apple está "significativamente detrás de los competidores"
- Incluso OpenAI ha renunciado a intentar detectar el plagio de ChatGPT
- GPT-4: cómo usar el chatbot de IA que avergüenza a ChatGPT
- ¿Qué es un indicador de DAN para ChatGPT?
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales perspicaces y adelantos únicos.