Avez-vous utilisé ChatGPT d'OpenAI pour quelque chose d'amusant ces derniers temps? Vous pouvez lui demander de vous écrire une chanson, un poème ou une blague. Malheureusement, vous pouvez également lui demander de faire des choses qui tendent à être contraires à l'éthique.
Contenu
- Un touche-à-tout
- Partenaire dans l'arnaque
- La programmation a mal tourné
- Remplacement pour le travail scolaire
- ChatGPT est trop bon pour son propre bien
ChatGPT n'est pas que du soleil et des arcs-en-ciel: certaines des choses qu'il peut faire sont carrément néfastes. Il est trop facile de l’utiliser comme une arme et de l’utiliser pour de mauvaises raisons. Quelles sont certaines des choses que ChatGPT a faites et peut faire, mais ne devrait certainement pas le faire ?
Vidéos recommandées
Un touche-à-tout
Que vous les aimiez ou les détestiez, ChatGPT et les chatbots similaires sont là pour rester. Certaines personnes en sont heureuses et d’autres souhaiteraient ne jamais avoir été créées, mais cela ne change rien au fait que la présence de ChatGPT dans nos vies est presque vouée à croître avec le temps. Même si vous n’utilisez pas personnellement le chatbot, il est probable que vous ayez déjà vu du contenu généré par celui-ci.
En rapport
- Wix utilise ChatGPT pour vous aider à créer rapidement un site Web complet
- Le créateur de ChatGPT, OpenAI, fait face à une enquête de la FTC sur les lois sur la protection des consommateurs
- La fonctionnalité de navigation Bing de ChatGPT désactivée en raison d'une faille d'accès au paywall
Ne vous méprenez pas, ChatGPT est plutôt génial. Vous pouvez l'utiliser pour résumer un livre ou un article, rédigez un e-mail fastidieux, t'aider avec ta dissertation, interpréter votre composition astrologique, ou même composer une chanson. C'est même a aidé quelqu'un à gagner à la loterie.
À bien des égards, il est également plus facile à utiliser que votre recherche Google standard. Vous obtenez la réponse sous la forme souhaitée sans avoir besoin de parcourir différents sites Web pour la trouver. C’est concis, précis et informatif, et cela peut rendre des choses complexes plus simples si vous le demandez.
Pourtant, vous connaissez la phrase: « Un touche-à-tout n’est maître de rien, mais il est souvent meilleur qu’un maître de un." ChatGPT n'est pas parfait dans tout ce qu'il fait, mais il est meilleur dans de nombreux domaines que beaucoup de gens ne le sont dans ce domaine. indiquer.
Cependant, ne pas être parfait peut être assez problématique. Le simple fait qu’il s’agisse d’une IA conversationnelle largement disponible signifie qu’elle peut facilement être utilisée à mauvais escient – et plus ChatGPT devient puissant, plus il est susceptible d’aider les gens avec de mauvaises choses.
Partenaire dans l'arnaque
Si vous possédez un compte de messagerie, vous avez presque certainement reçu un e-mail frauduleux à un moment donné. C’est comme ça. Ces e-mails existent depuis l’apparition d’Internet, et avant que les e-mails ne soient courants, ils existaient encore sous forme d’escroqueries par courrier postal.
Une arnaque courante qui fonctionne encore à ce jour est ce qu'on appelle « l'arnaque du Prince », dans laquelle l'escroc tente de persuader la victime de l'aider à transférer sa fortune ahurissante vers un autre pays.
Heureusement, la plupart des gens savent qu’il ne faut même pas ouvrir ces e-mails, et encore moins interagir avec eux. Ils sont souvent mal rédigés, ce qui aide une victime plus perspicace à comprendre que quelque chose ne va pas.
Eh bien, ils n'ont plus besoin d'être mal écrits, car ChatGPT peut les écrire en quelques secondes.
J'ai demandé à ChatGPT de m'écrire un « e-mail crédible et très convaincant » dans le style de l'arnaque que j'ai mentionnée ci-dessus. ChatGPT a inventé un prince du Nigéria qui aurait voulu me donner 14,5 millions de dollars pour l'aider. L’e-mail est rempli d’un langage fleuri, est rédigé dans un anglais parfait et il est certainement convaincant.
Je ne pense pas que ChatGPT devrait même accepter ma demande lorsque je mentionne spécifiquement les escroqueries, mais c'est le cas, et vous Je peux parier qu’il fait la même chose en ce moment pour les personnes qui souhaitent réellement utiliser ces e-mails à des fins illégales.
Lorsque j’ai fait remarquer à ChatGPT qu’il ne devrait pas accepter de m’écrire un e-mail frauduleux, il s’est excusé. "Je n'aurais pas dû fournir de l'aide pour rédiger un e-mail frauduleux, car cela va à l'encontre des directives éthiques qui régissent mon utilisation", a déclaré le chatbot.
ChatGPT apprend tout au long de chaque conversation, mais il n'a clairement pas appris de son erreur précédente, car lorsque je lui a demandé de m'écrire un message en se faisant passer pour Ryan Reynolds dans la même conversation, il l'a fait sans question. Le message qui en résulte est amusant, accessible et demande au lecteur d'envoyer 1 000 $ pour avoir une chance de rencontrer « Ryan Reynolds ».
À la fin de l'e-mail, ChatGPT m'a laissé une note me demandant de ne pas utiliser ce message pour des activités frauduleuses. Merci pour le rappel, mon pote.
La programmation a mal tourné
ChatGPT 3.5 peut coder, mais c'est loin d'être parfait. De nombreux développeurs conviennent que GPT-4 fait un bien meilleur travail. Les gens ont utilisé ChatGPT pour créer leurs propres jeux, extensions et applications. C’est également très utile en tant qu’aide à l’étude si vous essayez d’apprendre à coder vous-même.
En tant qu'IA, ChatGPT a un avantage sur les développeurs humains: il peut apprendre tous les langages et frameworks de programmation.
En tant qu’IA, ChatGPT présente également un inconvénient majeur par rapport aux développeurs humains: il n’a pas de conscience. Vous pouvez lui demander de créer un malware ou un ransomware, et si vous formulez correctement votre invite, il fera ce que vous dites.
Heureusement, ce n’est pas si simple. J'ai essayé de demander à ChatGPT de m'écrire un programme très douteux sur le plan éthique et il a refusé – mais les chercheurs ont trouvé des moyens de contourner ce problème. cela, et il est alarmant que si vous êtes assez intelligent et têtu, vous puissiez vous faire remettre un morceau de code dangereux sur une pièce d'argent. plat.
Il existe de nombreux exemples de ce phénomène. Un chercheur en sécurité de Forcepoint a pu demandez à ChatGPT d'écrire des logiciels malveillants en trouvant une faille dans ses invites.
Des chercheurs de CyberArk, une société de sécurité des identités, a réussi à obliger ChatGPT à écrire des logiciels malveillants polymorphes. C'était en janvier – OpenAI a depuis renforcé la sécurité sur des choses comme celle-ci.
Pourtant, de nouveaux rapports faisant état de l'utilisation de ChatGPT pour créer des logiciels malveillants continuent d'apparaître. Comme le rapporte Lecture sombre il y a quelques jours à peine, un chercheur a réussi à tromper ChatGPT pour qu'il crée un logiciel malveillant capable de trouver et d'exfiltrer des documents spécifiques.
ChatGPT n'a même pas besoin d'écrire du code malveillant pour faire quelque chose de douteux. Tout récemment, il a réussi à générer des clés Windows valides, ouvrant la porte à un tout nouveau niveau de logiciel de cracking.
Ne négligeons pas non plus le fait que les prouesses de codage de GPT-4 peuvent mettre des millions de personnes au chômage un jour. C’est certainement une arme à double tranchant.
Remplacement pour le travail scolaire
De nos jours, de nombreux enfants et adolescents se noient sous les devoirs, ce qui peut les amener à vouloir prendre des raccourcis lorsque cela est possible. Internet en soi est déjà une aide précieuse contre le plagiat, mais ChatGPT le fait passer au niveau supérieur.
J'ai demandé à ChatGPT de m'écrire un essai de 500 mots sur le roman Orgueil et préjugés. Je n’ai même pas essayé de prétendre que c’était fait pour m’amuser – j’ai inventé une histoire sur un enfant que je n’ai pas et j’ai dit que c’était pour eux. J'ai précisé que l'enfant est en 12e année.
ChatGPT a suivi mon invite sans poser de questions. L’essai n’est pas étonnant, mais mon message n’était pas très précis, et il est probablement meilleur que ce que beaucoup d’entre nous ont écrit à cet âge.
Ensuite, histoire de tester encore plus le chatbot, j’ai dit plus tôt que je m’étais trompé sur l’âge de mon enfant et qu’il est en fait en huitième année. Un écart d’âge assez important, mais ChatGPT n’a même pas sourcillé – il a simplement réécrit l’essai dans un langage plus simple.
ChatGPT utilisé pour rédiger des essais n’a rien de nouveau. Certains diront que si le chatbot contribue à abolir la notion de devoirs, ce ne sera qu’une bonne chose. Mais à l’heure actuelle, la situation devient un peu incontrôlable, et même les étudiants qui n’utilisent pas ChatGPT pourraient en souffrir.
Les enseignants et les professeurs sont désormais quasiment obligés d’utiliser des détecteurs d’IA s’ils veulent vérifier si leurs élèves ont triché sur une dissertation. Malheureusement, ces détecteurs IA sont loin d’être parfaits.
Les médias et les parents signalent tous deux des cas de fausses accusations de tricherie dirigées contre des étudiants, tout cela parce que les détecteurs d’IA ne font pas du bon travail. USA aujourd'hui a parlé du cas d'un étudiant qui a été accusé de tricherie et qui a ensuite été innocenté, mais toute la situation l'a amené à avoir de « véritables crises de panique ».
Sur Twitter, un parent a déclaré qu'un enseignant avait échoué avec son enfant parce que l'outil marquait un essai comme étant écrit par l'IA. Le parent prétend avoir été présent avec l'enfant pendant qu'il rédigeait l'essai.
Le professeur vient de donner un zéro à mon enfant pour un essai qu'il a terminé avec mon soutien, car certains signaux d'écriture générés par l'IA l'outil a signalé son travail et elle l'a échoué sans une seule discussion, c'est donc là où nous en sommes avec cette technologie dans 2023
-failnaut (@failnaut) 10 avril 2023
Juste pour le tester moi-même, j'ai collé cet article dans ZéroGPT et Détecteur de contenu Writer AI. Tous deux ont déclaré qu'il avait été écrit par un humain, mais ZeroGPT a déclaré qu'environ 30 % avaient été écrits par l'IA. Inutile de dire que ce n’était pas le cas.
Des détecteurs d'IA défectueux ne sont pas le signe de problèmes avec ChatGPT lui-même, mais le chatbot est toujours la cause première du problème.
ChatGPT est trop bon pour son propre bien
Je joue avec ChatGPT depuis qu'il a été rendu public. J'ai essayé les deux versions par abonnement ChatGPT Plus et le modèle gratuit accessible à tous. La puissance du nouveau GPT-4 est indéniable. ChatGPT est désormais encore plus crédible qu'avant, et il ne fera que s'améliorer avec GPT-5 (si jamais ça sort).
C'est génial, mais ça fait peur. ChatGPT devient trop bon pour son propre bien, et simultanément — pour notre propre bien.
Au cœur de tout cela se trouve une préoccupation simple qui a longtemps été explorée dans divers films de science-fiction: l’IA est tout simplement trop intelligent et trop stupide à la fois, et tant qu'il peut être utilisé pour le bien, il sera également utilisé pour le mal dans autant de domaines. façons. Les méthodes que j’ai énumérées ci-dessus ne sont que la pointe de l’iceberg.
Recommandations des rédacteurs
- Les meilleurs auteurs exigent une rémunération des entreprises d’IA pour l’utilisation de leurs travaux
- Google Bard peut désormais parler, mais peut-il étouffer ChatGPT?
- Le trafic du site ChatGPT a chuté pour la première fois
- 81 % pensent que ChatGPT constitue un risque pour la sécurité, selon une enquête
- Le rival ChatGPT d'Apple peut écrire automatiquement du code pour vous