Google le dice al personal que tenga cuidado con los chatbots de IA

Alphabet les ha dicho a sus empleados que no ingresen información confidencial en Bard, el chatbot generativo de inteligencia artificial creado y operado por Google, propiedad de Alphabet.

La advertencia de la compañía también se extiende a otros chatbots, como ChatGPT de OpenAI respaldado por Microsoft, Reuters informó el jueves.

Vídeos recomendados

Los chatbots impulsados ​​por IA han generado un gran interés en los últimos meses debido a su impresionante capacidad para conversar de forma humana, escribir ensayos e informes e incluso tener éxito en las pruebas académicas.

Relacionado

  • Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
  • La nueva compañía de inteligencia artificial de Elon Musk tiene como objetivo "comprender el universo"
  • Los avances de la IA podrían llegar a través del cerebro de las abejas, dicen los científicos

Pero a Alphabet le preocupa que sus trabajadores filtren inadvertidamente datos internos a través de las herramientas.

En el trabajo en curso para refinar y mejorar la tecnología avanzada de inteligencia artificial, los revisores humanos pueden leer las conversaciones que los usuarios tienen con los chatbots, lo que representa un riesgo para la privacidad personal y también la posible exposición de secretos comerciales, el último de los cuales Alphabet parece estar particularmente preocupado acerca de.

Además, los chatbots se entrenan en parte utilizando los intercambios de texto de los usuarios, por lo que con ciertas indicaciones, la herramienta podría potencialmente repetir la información confidencial que recibe en esas conversaciones a los miembros de la público.

Como ChatGPT, Bardo es ahora disponible de forma gratuita para que cualquiera lo pruebe. En su página web, advierte a los usuarios: "No incluya información que pueda usarse para identificarlo a usted u otras personas en sus conversaciones con Bard".

Agrega que Google recopila "conversaciones de Bard, información relacionada con el uso del producto, información sobre su ubicación y sus comentarios”, y usa los datos para mejorar los productos y servicios de Google que incluyen Bardo.

Google dice que almacena la actividad de Bard hasta por 18 meses, aunque un usuario puede cambiar esto a tres o 36 meses en su cuenta de Google.

Agrega que, como medida de privacidad, las conversaciones de Bard se desconectan de una cuenta de Google antes de que un revisor humano las vea.

Reuters dijo que si bien la advertencia de Alphabet ha estado vigente durante un tiempo, recientemente la amplió y les dijo a sus trabajadores que eviten usar códigos de computadora precisos generados por chatbots. La compañía le dijo al medio de comunicación que Bard a veces puede hacer "sugerencias de código no deseadas", aunque la iteración actual de la herramienta todavía se considera una ayuda de programación viable.

Alphabet no es la única empresa que advierte a sus empleados sobre los riesgos de privacidad y seguridad relacionados con el uso de los chatbots. Samsung emitió recientemente un instrucción similar a sus trabajadores después de que varios de ellos ingresaron datos confidenciales relacionados con semiconductores en ChatGPT, y Apple y Amazon, entre otros, supuestamente también promulgaron una política interna similar.

Recomendaciones de los editores

  • Las mejores herramientas de edición de video con IA
  • El fabricante de ChatGPT, OpenAI, enfrenta una investigación de la FTC sobre las leyes de protección al consumidor
  • El tráfico del sitio web de ChatGPT ha caído por primera vez
  • OpenAI está construyendo un nuevo equipo para evitar que la IA superinteligente se vuelva rebelde
  • Todo Internet ahora pertenece a la IA de Google

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales perspicaces y adelantos únicos.