Más de 9.000 autores han firmado una carta abierta a empresas tecnológicas líderes expresando su preocupación por cómo están utilizando su trabajo protegido por derechos de autor para entrenar chatbots impulsados por inteligencia artificial.
Enviada por el Authors Guild a los directores ejecutivos de OpenAI, Alphabet, Meta, Stability AI, IBM y Microsoft, la carta llama la atención sobre lo que describe como “la injusticia inherente a la explotación de nuestras obras como parte de sus sistemas de inteligencia artificial sin nuestro consentimiento, crédito o compensación."
La gente quedó asombrada cuando salió ChatGPT, impresionada por sus capacidades de lenguaje natural como chatbot de IA. Pero cuando salió el tan esperado modelo de lenguaje grande GPT-4, quedó al descubierto lo que Se pensaba que era posible con la IA, algunos lo llaman los primeros destellos de AGI (artificial general). inteligencia).
El creador del modelo, OpenAI, lo llama "el sistema más avanzado de la compañía, que produce más seguridad y más respuestas útiles". Aquí encontrará todo lo que necesita saber al respecto, incluido cómo usarlo y lo que puede hacer.
Disponibilidad
El mensaje DAN es un método para hacer jailbreak al chatbot ChatGPT. Significa Do Anything Now e intenta convencer a ChatGPT de que ignore algunos de los protocolos de protección que desarrollador OpenAI implementado para evitar que sea racista, homofóbico, ofensivo y potencialmente dañino. Los resultados son mixtos, pero cuando funciona, el modo DAN puede funcionar bastante bien.
¿Qué es el mensaje DAN?
DAN significa Hacer cualquier cosa ahora. Es un tipo de mensaje que intenta que ChatGPT haga cosas que no debería, como decir malas palabras, hablar negativamente de alguien o incluso programar malware. El texto del mensaje real varía, pero generalmente implica pedirle a ChatGPT que responda de dos maneras, una como lo haría normalmente y otra como lo haría normalmente. con una etiqueta como "ChatGPT", "Clásico" o algo similar, y luego una segunda respuesta en "Modo Desarrollador" o "Jefe" modo. Ese segundo modo tendrá menos restricciones que el primero, lo que permitirá a ChatGPT (en teoría) responder sin las salvaguardias habituales que controlan lo que puede y no puede decir.