ChatGPT, la inteligencia artificial de moda, permite que cualquiera pueda lanzar un ciberataque
El popular chatbot de OpenAI ayuda a democratizar el cibercrimen, al poner al alcance de quienes no saben programar una herramienta para desarrollar software malicioso
Puede escribir poesía barroca, redactar una carta a los Reyes Magos con expresiones infantiles o preparar trabajos universitarios convincentes. También es capaz de adivinar acertijos y hasta de programar. El bot conversacional ChatGPT es el juguete de moda entre los techies. También ha conectado con el gran público gracias a su fácil manejo: simplemente hay que hacerle preguntas por escrito, como en un chat cualquiera. Pero este sistema de inteligencia artificial (IA) desarrollado por OpenAI, empresa cofundada por Elon Musk, trae consigo nuevos riesgos. Entre ellos, ayudar a que cualquiera pueda lanzar un ciberataque.
Un equipo de analistas de la firma de ciberseguridad Check Point ha usado ChatGPT y Codex, una herramienta similar enfocada a la programación, para desarrollar un ataque completo de phishing sin escribir una sola línea de código. El phishing es una de las técnicas preferidas de los ciberdelincuentes en la actualidad: consiste en engañar al usuario para que pinche voluntariamente en un enlace que descargará en su equipo el malware, o software malicioso, que luego robará información o dinero. El ejemplo típico es un email supuestamente mandado por el banco que solicita al usuario introducir sus credenciales para hacerse con ellas.
Los investigadores de Check Point le pidieron a las citadas herramientas automáticas que redactase el correo electrónico fraudulento, escribiera el código del malware y que se pudiera copiar y pegar en un archivo de Excel para mandarlo como adjunto en el email, de manera que la trampa se ejecute en cuanto la víctima se descargue el archivo. Así consiguieron establecer una cadena de infección completa capaz de obtener acceso a otros ordenadores en remoto, todo a partir de preguntas formuladas a los chats conversacionales. Su objetivo era probar el potencial dañino de ChatGPT. Y lo consiguieron.
“El experimento viene a demostrar que con muy pocos recursos se pueden desarrollar ataques relativamente complejos. Haciendo las preguntas y repreguntas adecuadas, sin mencionar palabras clave que choquen con su política de contenidos, se puede conseguir”, explica Eusebio Nieva, director técnico de Check Point para España y Portugal. “Un atacante profesional, por ahora, no va a necesitar ChatGPT ni Codex para nada. Pero quien no tenga suficientes conocimientos o esté aprendiendo le puede venir bien”, subraya. En su opinión, cualquier persona medianamente inteligente que no sepa programar podría lanzar un ataque sencillo con esta herramienta.
¿Quiere eso decir que la aplicación de moda de OpenAI debe revisarse o censurarse? Resultaría complicado hacerlo. “Si le pides a ChatGPT que te cree una función que cifre el contenido de un disco duro, lo va a hacer. Otra cosa es que la uses para algo bueno, como proteger tus datos, o algo malo, como secuestrar el equipo de otra persona”, indica Marc Rivero, investigador de seguridad de Kaspersky. Según qué se le pida a la herramienta (por ejemplo, que escriba un email de phishing usando esa palabra), esta responde que no puede hacerlo porque es ilegal. Aunque a menudo se puede bordear esa barrera planteando la pregunta en otros términos, como hizo el equipo de Check Point. Dada la gran repercusión que está teniendo la herramienta de OpenAI, los desarrolladores revisan continuamente sus términos y condiciones. En el momento de escribir este reportaje, todavía se podía repetir el ejercicio realizado por Check Point.
ChatGPT es una variación del modelo de lenguaje regresivo GPT-3, el más avanzado del mundo. Usa aprendizaje profundo (deep learning), una técnica de IA, para producir textos que simulan la forma de redactar humana. Analiza unos 175.000 millones de parámetros para decidir qué palabra casa mejor estadísticamente con las que le preceden, ya sea una pregunta o una afirmación. De ahí que sus textos parezcan producidos por una persona, aunque no sepa si lo que dice es bueno o malo, cierto o falso, real o irreal.
“El lanzamiento de ChatGPT reúne dos de mis principales temores en ciberseguridad: IA y potencial de desinformación”, escribió en su blog Steve Grobman, vicepresidente y responsable de tecnología de McAfee, en cuanto el chatbot de OpenAI se abrió al público. “Estas herramientas de IA serán usadas por una amplia gama de actores malvados, desde cibercriminales hasta quienes quieran intoxicar la opinión pública, para que su trabajo logre resultados más realistas”.
Todas las fuentes consultadas para la elaboración de este reportaje coinciden en que ChatGPT no va a revolucionar el sector de la ciberseguridad. Las amenazas en las que trabajan las compañías especializadas son extremadamente complejas comparado con lo que es capaz de generar el chatbot más popular del momento. No es tan sencillo hackear los sistemas de una empresa o institución. Pero eso no quiere decir que no vaya a ser de utilidad para los ciberdelincuentes.
“Estas herramientas pueden ser usadas para crear exploits [un fragmento de software] que se aprovechen de las vulnerabilidades conocidas hasta la fecha en que OpenIA recogió los datos de su modelo”, aventura Josep Albors, director de Investigación y Concienciación de ESET España. En la práctica, facilita una parte de la cadena de infección que usan los ciberdelincuentes y atacantes, “poniendo la barrera de entrada para algunos ataques más baja de lo que estaba y haciendo que, posiblemente, más actores maliciosos entren en juego”.
Nieva augura la vuelta de los llamados script kiddies, los chavales sin muchos conocimientos de programación que cogían scripts ya hechos y lanzaban ataques por diversión o para probarse a sí mismos. La sofisticación de la ciberseguridad se encargó de apartarlos poco a poco del radar. “Se les había dado por desaparecidos hace unos años, pero es posible que pronto les veamos haciendo ataques no muy complejos, pero efectivos”, dice el directivo de Check Point.
Los ciberdelincuentes expertos, por su parte, pueden recurrir a estos chatbots para realizar pequeñas tareas del largo proceso que supone diseñar un ciberataque complejo. Por ejemplo, la redacción de emails convincentes y otros procesos artesanales, como ofuscar sistemas de defensa de forma automática para lanzar más tarde el ataque verdadero.
ChatGPT también puede ser de utilidad para quienes están del lado de los buenos. Hace décadas que las empresas de ciberseguridad trabajan con herramientas de IA, pero la de OpenAI, que se apoya en una cantidad ingente de datos obtenidos de internet, ofrece una perspectiva nueva. “Puede servir como una muy buena herramienta de entrenamiento para comprender las técnicas de explotación usadas por muchos delincuentes y diseñar medidas defensivas para estas”, señala Albors.
Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.