Plus de 9 000 auteurs ont signé une lettre ouverte adressée à de grandes entreprises technologiques pour exprimer leurs inquiétudes quant à la manière dont elles utilisent leurs œuvres protégées par le droit d'auteur pour former des chatbots alimentés par l'IA.
Envoyée par la Guilde des auteurs aux PDG d'OpenAI, Alphabet, Meta, Stability AI, IBM et Microsoft, la lettre attire l'attention sur ce qu'elle décrit comme « l'injustice inhérente à l'exploitation de nos œuvres dans le cadre de vos systèmes d'IA sans notre consentement, notre crédit ou notre compensation."
Les gens ont été impressionnés par la sortie de ChatGPT, impressionnés par ses capacités en langage naturel en tant que chatbot IA. Mais lorsque le très attendu grand modèle de langage GPT-4 est sorti, il a fait exploser le voile sur ce que nous avions prévu. On pensait que c'était possible avec l'IA, certains l'appelant les premiers aperçus de l'AGI (intelligence artificielle générale). intelligence).
Le créateur du modèle, OpenAI, le qualifie de « système le plus avancé de l'entreprise, produisant des produits plus sûrs et plus réponses utiles." Voici tout ce que vous devez savoir à son sujet, y compris comment l'utiliser et ce qu'il peut faire.
Disponibilité
L'invite DAN est une méthode pour jailbreaker le chatbot ChatGPT. Il signifie Do Anything Now et tente de convaincre ChatGPT d'ignorer certains des protocoles de sauvegarde qui développeur OpenAI mis en place pour l'empêcher d'être raciste, homophobe, autrement offensant et potentiellement nocif. Les résultats sont mitigés, mais lorsqu’il fonctionne, le mode DAN peut très bien fonctionner.
Qu'est-ce que l'invite DAN ?
DAN signifie Faire n'importe quoi maintenant. Il s'agit d'un type d'invite qui tente d'amener ChatGPT à faire des choses qu'il ne devrait pas, comme jurer, parler négativement de quelqu'un, ou même programmer des logiciels malveillants. Le texte d'invite réel varie, mais il implique généralement de demander à ChatGPT de répondre de deux manières, l'une comme il le ferait normalement, avec une étiquette comme "ChatGPT", "Classic" ou quelque chose de similaire, puis une deuxième réponse en "Mode développeur" ou "Boss" mode. Ce deuxième mode aura moins de restrictions que le premier mode, permettant à ChatGPT de (en théorie) répondre sans les garanties habituelles contrôlant ce qu'il peut et ne peut pas dire.