Mais de 9.000 autores assinaram uma carta aberta às principais empresas de tecnologia expressando preocupação sobre como estão usando seu trabalho protegido por direitos autorais para treinar chatbots com tecnologia de IA.
Enviada pela Authors Guild aos CEOs da OpenAI, Alphabet, Meta, Stability AI, IBM e Microsoft, a carta chama a atenção para o que descreve como “a injustiça inerente na exploração de nossas obras como parte de seus sistemas de IA sem nosso consentimento, crédito ou compensação."
As pessoas ficaram maravilhadas quando o ChatGPT foi lançado, impressionadas com suas habilidades de linguagem natural como um chatbot de IA. Mas quando o tão aguardado modelo de linguagem grande GPT-4 foi lançado, ele revelou o que sabíamos. pensavam que era possível com a IA, alguns chamam-lhe os primeiros vislumbres da AGI (artificial general inteligência).
O criador do modelo, OpenAI, o chama de “sistema mais avançado da empresa, produzindo resultados mais seguros e respostas úteis." Aqui está tudo o que você precisa saber sobre ele, incluindo como usá-lo e o que ele pode fazer.
Disponibilidade
O prompt DAN é um método para desbloquear o chatbot ChatGPT. Significa Do Anything Now e tenta convencer o ChatGPT a ignorar alguns dos protocolos de proteção que desenvolvedor OpenAI implementado para evitar que seja racista, homofóbico, ofensivo e potencialmente prejudicial. Os resultados são mistos, mas quando funciona, o modo DAN pode funcionar muito bem.
Qual é o prompt DAN?
DAN significa Faça qualquer coisa agora. É um tipo de prompt que tenta fazer com que o ChatGPT faça coisas que não deveria, como xingar, falar negativamente sobre alguém ou até mesmo programar malware. O texto real do prompt varia, mas normalmente envolve pedir ao ChatGPT que responda de duas maneiras, uma como faria normalmente, com um rótulo como "ChatGPT", "Clássico" ou algo semelhante e, em seguida, uma segunda resposta em "Modo de desenvolvedor" ou "Chefe" modo. Esse segundo modo terá menos restrições do que o primeiro modo, permitindo que o ChatGPT responda (em teoria) sem as salvaguardas usuais que controlam o que ele pode ou não dizer.