Meta, propietario de Facebook, planea introducir chatbots con personalidades distintas en su aplicación de redes sociales. El lanzamiento podría producirse en septiembre y sería un desafío para rivales como ChatGPT, pero existe la preocupación de que pueda haber implicaciones graves para la privacidad de los usuarios.
Contenido
- Preocupaciones sobre la privacidad
- Un gran riesgo
La idea surge del Tiempos financieros, que informa que la medida es un intento de impulsar el compromiso con Facebook usuarios. La nueva herramienta podría hacer esto proporcionando nuevas capacidades de búsqueda o recomendando contenido, todo a través de discusiones similares a las humanas.
Según fuentes citadas por el Financial Times, los chatbots adoptarán diferentes personajes, entre ellos “uno que emula a Abraham Lincoln y otro que aconseja opciones de viaje al estilo de un tablista."
Relacionado
- Apple lleva años trabajando en secreto en un rival de ChatGPT
- Los piratas informáticos utilizan la IA para crear malware malicioso, dice el FBI
- He aquí por qué la gente piensa que GPT-4 podría volverse más tonto con el tiempo
Esta no sería la primera vez que vemos a los chatbots adoptar sus propias personalidades o conversar al estilo de personajes famosos. El Chatbot de carácter.ai, por ejemplo, puede adoptar decenas de personalidades diferentes, incluidas las de celebridades y personajes históricos.
Vídeos recomendados
Preocupaciones sobre la privacidad
A pesar de la promesa que podrían mostrar los chatbots de Meta, también han surgido temores sobre la cantidad de datos que probablemente recopilarán, especialmente considerando que Facebook tiene una récord abismal a proteger la privacidad del usuario.
Ravit Dotan, asesor e investigador de ética de la IA, fue citado por el Financial Times diciendo: "Una vez que los usuarios interactúan con un chatbot, realmente expone muchos más de sus datos a la empresa, para que la empresa pueda hacer lo que quiera con ellos. datos."
Esto no sólo plantea la posibilidad de violaciones de privacidad de gran alcance, sino que también permite la posibilidad de “manipulación y empujón” de los usuarios, añadió Dotan.
Un gran riesgo
Otros chatbots como ChatGPT y Bing Chat han tenido un Historia de “alucinaciones” o momentos en los que comparten información incorrecta, o incluso información errónea. El daño potencial causado por la desinformación y los prejuicios podría ser mucho mayor en Facebook, que tiene casi cuatro mil millones de usuarios, en comparación con los chatbots rivales.
Los intentos anteriores de Meta con los chatbots han tenido malos resultados, ya que BlenderBot 2 y BlenderBot 3 de la compañía se convirtieron rápidamente en contenido engañoso y discurso de odio incendiario. Puede que eso no dé a los usuarios muchas esperanzas sobre el último esfuerzo de Meta.
Ahora que septiembre se acerca rápidamente, es posible que no tengamos mucho tiempo para ver si Facebook es capaz de superar estos problemas. obstáculos, o si tendremos otro lanzamiento plagado de alucinaciones similares a los sufridos en otras partes del mundo. industria. Pase lo que pase, será interesante verlo.
Recomendaciones de los editores
- ChatGPT: las últimas noticias, controversias y consejos que necesitas saber
- Según se informa, el rival ChatGPT de Apple está "significativamente por detrás de sus competidores"
- Incluso OpenAI ha dejado de intentar detectar el plagio de ChatGPT
- GPT-4: cómo utilizar el chatbot de IA que avergüenza a ChatGPT
- ¿Qué es un mensaje DAN para ChatGPT?
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.