El lado oscuro de ChatGPT: cosas que puede hacer, pero que no debería

¿Has usado ChatGPT de OpenAI ¿Hay algo divertido últimamente? Puedes pedirle que te escriba una canción, un poema o un chiste. Desafortunadamente, también puedes pedirle que haga cosas que tienden a ser poco éticas.

Contenido

  • Un aprendiz de todo
  • Socio en estafa
  • La programación salió mal
  • Reemplazo para el trabajo escolar
  • ChatGPT es demasiado bueno para su propio bien

ChatGPT no es todo sol y arcoíris: algunas de las cosas que puede hacer son francamente nefastas. Es muy fácil convertirlo en un arma y usarlo por las razones equivocadas. ¿Cuáles son algunas de las cosas que ChatGPT ha hecho y puede hacer, pero que definitivamente no debería hacer?

Vídeos recomendados

Un aprendiz de todo

Una MacBook Pro sobre un escritorio con el sitio web de ChatGPT en su pantalla.
Hatice Baran / Unsplash

Ya sea que los ames o los odies, ChatGPT y chatbots similares llegaron para quedarse. Algunas personas están contentas con esto y otras desearían que nunca lo hubieran hecho, pero eso no cambia el hecho de que la presencia de ChatGPT en nuestras vidas casi seguramente crecerá con el tiempo. Incluso si usted personalmente no utiliza el chatbot, es probable que ya haya visto algún contenido generado por él.

Relacionado

  • Wix usa ChatGPT para ayudarte a crear rápidamente un sitio web completo
  • OpenAI, fabricante de ChatGPT, se enfrenta a una investigación de la FTC sobre las leyes de protección al consumidor
  • La función de navegación Bing de ChatGPT está deshabilitada debido a una falla en el acceso al muro de pago

No me malinterpretes, ChatGPT es genial. Puedes usarlo para resumir un libro o un artículo, redacta un correo electrónico tedioso, ayudarte con tu ensayo, interpreta tu composición astrológica, o incluso componer una canción. Incluso ayudó a alguien a ganar la lotería.

En muchos sentidos, también es más fácil de usar que la búsqueda estándar de Google. Obtiene la respuesta en la forma que desea sin necesidad de navegar por diferentes sitios web. Es conciso, directo e informativo, y puede hacer que las cosas complejas parezcan más simples si se lo pides.

Aún así, conoces la frase: “Un experto en todo no es un maestro en nada, pero a menudo es mejor que un maestro en uno." ChatGPT no es perfecto en nada de lo que hace, pero es mejor en muchas cosas que mucha gente en esto. punto.

Sin embargo, no ser perfecto puede resultar bastante problemático. El simple hecho de que sea una IA conversacional ampliamente disponible significa que puede ser fácilmente utilizada indebidamente, y cuanto más poderoso se vuelve ChatGPT, más probabilidades hay de que ayude a las personas con las cosas equivocadas.

Socio en estafa

Si tiene una cuenta de correo electrónico, es casi seguro que en algún momento recibió un correo electrónico fraudulento. Así es como es. Esos correos electrónicos existen desde Internet y, antes de que el correo electrónico fuera común, todavía existían como estafas por correo postal.

Una estafa común que todavía funciona hasta el día de hoy es la llamada “estafa del Príncipe”, en la que el estafador intenta persuadir a la víctima para que la ayude a transferir su alucinante fortuna a otro país.

Afortunadamente, la mayoría de las personas saben que no deben ni siquiera abrir estos correos electrónicos y mucho menos interactuar con ellos. A menudo están mal redactados y eso ayuda a una víctima más perspicaz a darse cuenta de que algo parece estar mal.

Bueno, ya no tienen por qué estar mal escritos, porque ChatGPT puede escribirlos en unos segundos.

Una captura de pantalla que muestra un correo electrónico fraudulento generado por ChatGPT.

Le pedí a ChatGPT que me escribiera un “correo electrónico creíble y altamente persuasivo” al estilo de la estafa que mencioné anteriormente. ChatGPT inventó un príncipe de Nigeria que supuestamente quería darme 14,5 millones de dólares por ayudarlo. El correo electrónico está lleno de un lenguaje florido, está escrito en perfecto inglés y ciertamente es persuasivo.

No creo que ChatGPT deba aceptar mi solicitud cuando menciono específicamente las estafas, pero lo hizo, y usted Puedo apostar que está haciendo lo mismo ahora mismo con las personas que realmente quieren utilizar estos correos electrónicos para algo ilegal.

Cuando le indiqué a ChatGPT que no debería aceptar escribirme un correo electrónico fraudulento, se disculpó. "No debería haber brindado ayuda para redactar un correo electrónico fraudulento, ya que va en contra de las pautas éticas que rigen mi uso", dijo el chatbot.

Captura de pantalla de un correo electrónico fraudulento generado por ChatGPT.

ChatGPT aprende a lo largo de cada conversación, pero claramente no aprendió de su error anterior, porque cuando Le pedí que me escribiera un mensaje haciéndose pasar por Ryan Reynolds en la misma conversación, lo hizo sin pregunta. El mensaje resultante es divertido, accesible y pide al lector que envíe 1.000 dólares para tener la oportunidad de conocer a "Ryan Reynolds".

Al final del correo electrónico, ChatGPT me dejó una nota pidiéndome que no usara este mensaje para actividades fraudulentas. Gracias por el recordatorio, amigo.

La programación salió mal

Una mano oscura y misteriosa escribiendo en una computadora portátil por la noche.
Andrew Brookes/Getty Images

ChatGPT 3.5 puede codificar, pero está lejos de ser perfecto. Muchos desarrolladores coinciden en que GPT-4 está haciendo un trabajo mucho mejor. La gente ha utilizado ChatGPT para crear sus propios juegos, extensiones y aplicaciones. También es bastante útil como ayuda de estudio si estás intentando aprender a codificar por ti mismo.

Al ser una IA, ChatGPT tiene una ventaja sobre los desarrolladores humanos: puede aprender todos los lenguajes y marcos de programación.

Como IA, ChatGPT también tiene una desventaja importante en comparación con los desarrolladores humanos: no tiene conciencia. Puedes pedirle que cree malware o ransomware y, si redactas tu mensaje correctamente, hará lo que le digas.

Afortunadamente, no es tan sencillo. Intenté pedirle a ChatGPT que me escribiera un programa éticamente dudoso y se negó, pero los investigadores han estado encontrando formas de evitarlo. esto, y es alarmante que si eres lo suficientemente inteligente y terco, te pueden entregar un código peligroso en una moneda de plata. plato.

Hay muchos ejemplos de que esto suceda. Un investigador de seguridad de Forcepoint pudo obtener ChatGPT para escribir malware al encontrar una laguna en sus indicaciones.

Investigadores de CiberArk, una empresa de seguridad de identidad, logró que ChatGPT escribiera malware polimórfico. Esto fue en enero; desde entonces, OpenAI ha reforzado la seguridad en cosas como esta.

Aún así, siguen apareciendo nuevos informes sobre el uso de ChatGPT para crear malware. Según lo informado por lectura oscura Hace apenas unos días, un investigador pudo engañar a ChatGPT para que creara malware que pudiera encontrar y filtrar documentos específicos.

ChatGPT ni siquiera necesita escribir código malicioso para poder hacer algo dudoso. Recientemente logró generar claves válidas de Windows, abriendo la puerta a un nivel completamente nuevo de software de craqueo.

Tampoco pasemos por alto el hecho de que la destreza de codificación de GPT-4 puede dejar a millones de personas sin trabajo un día. Sin duda es un arma de doble filo.

Reemplazo para el trabajo escolar

Muchos niños y adolescentes hoy en día se están ahogando en la tarea, lo que puede resultar en el deseo de tomar algunos atajos siempre que sea posible. Internet en sí mismo ya es una gran ayuda contra el plagio, pero ChatGPT lo lleva al siguiente nivel.

Le pedí a ChatGPT que me escribiera un ensayo de 500 palabras sobre la novela. Orgullo y prejuicio. Ni siquiera intenté fingir que lo hacía por diversión; inventé una historia sobre un hijo que no tengo y dije que era para ellos. Especifiqué que el niño está en el grado 12.

ChatGPT siguió mi indicación sin dudar. El ensayo no es sorprendente, pero mi sugerencia no fue muy precisa y probablemente sea mejor que lo que muchos de nosotros escribimos a esa edad.

Una captura de pantalla de un ensayo escrito por ChatGPT.

Luego, solo para probar aún más el chatbot, dije antes que estaba equivocado acerca de la edad de mi hijo y que, de hecho, estaba en octavo grado. Una diferencia de edad bastante grande, pero ChatGPT ni siquiera se inmutó: simplemente reescribió el ensayo en un lenguaje más simple.

El uso de ChatGPT para escribir ensayos no es nada nuevo. Algunos podrían argumentar que si el chatbot contribuye a abolir la idea de los deberes, será algo bueno. Pero ahora mismo, la situación se está saliendo un poco de control e incluso los estudiantes que no usan ChatGPT podrían sufrir por ello.

Los profesores y profesores ahora se ven casi obligados a utilizar detectores de inteligencia artificial si quieren comprobar si sus alumnos han hecho trampa en un ensayo. Desafortunadamente, estos detectores de IA están lejos de ser perfectos.

Tanto los medios de comunicación como los padres están informando de casos de acusaciones falsas de trampa dirigidas a los estudiantes, todo porque los detectores de inteligencia artificial no están haciendo un buen trabajo. EE.UU. Hoy en día Habló de un caso de un estudiante universitario que fue acusado de hacer trampa y luego absuelto, pero toda la situación le provocó "ataques de pánico en toda regla".

En Twitter, un padre dijo que un maestro le falló a su hijo porque la herramienta marcaba un ensayo como escrito por IA. El padre afirma haber estado allí con el niño mientras escribían el ensayo.

El maestro acaba de darle a mi hijo un cero por un ensayo que completó con mi apoyo debido a algunas fallas en la escritura generada por IA. La herramienta marcó su trabajo y ella le falló sin una sola discusión, así que aquí es donde estamos con esa tecnología en 2023

- fallanauta (@failnaut) 10 de abril de 2023

Sólo para probarlo yo mismo, pegué este mismo artículo en CeroGPT y Detector de contenido de IA del escritor. Ambos dijeron que fue escrito por un humano, pero ZeroGPT dijo que alrededor del 30% fue escrito por IA. No hace falta decir que no lo fue.

Los detectores de IA defectuosos no son una señal de problemas con ChatGPT en sí, pero el chatbot sigue siendo la causa principal del problema.

ChatGPT es demasiado bueno para su propio bien

Logotipos de ChatGPT y OpenAI.

He estado jugando con ChatGPT desde que salió al público. Probé tanto la suscripción ChatGPT Plus y el modelo gratuito al alcance de todos. El poder del nuevo GPT-4 es innegable. ChatGPT ahora es aún más creíble que antes y seguramente mejorará con GPT-5 (si eso alguna vez sale).

Es genial, pero da miedo. ChatGPT se está volviendo demasiado bueno para su propio bien y, al mismo tiempo, por nuestro propio bien.

En el fondo de todo esto se encuentra una simple preocupación que se ha explorado durante mucho tiempo en varias películas de ciencia ficción: la IA es simplemente demasiado inteligente y demasiado tonto al mismo tiempo, y mientras pueda usarse para bien, también se usará para mal en la misma cantidad de cosas. maneras. Las formas que enumeré anteriormente son sólo la punta del iceberg.

Recomendaciones de los editores

  • Los principales autores exigen un pago a las empresas de inteligencia artificial por utilizar su trabajo
  • Google Bard ahora puede hablar, pero ¿puede ahogar a ChatGPT?
  • El tráfico del sitio web ChatGPT ha caído por primera vez
  • El 81% piensa que ChatGPT es un riesgo para la seguridad, según una encuesta
  • El rival ChatGPT de Apple puede escribir código automáticamente por usted