Ir al contenido

Un ciberataque por minuto: la IA “democratiza” el crimen informático

La irrupción de la inteligencia artificial en las estafas digitales agiliza su ejecución y las eleva un 488% en la última década

Cada minuto se produce un ciberataque. Las fuerzas policiales españolas contabilizaron en los primeros seis meses del año 245.191 golpes, un 3,4% más que en el mismo periodo del pasado año, según el Balance de Criminalidad del Ministerio del Interior. Y son solo los registrados, porque muchos casos no se hacen públicos, salvo incidentes graves, para salvaguardar el prestigio de la entidad afectada o porque se resuelve de forma interna o la víctima no es consciente. Los dispositivos digitales son el escenario de uno de cada cinco delitos que, en su mayoría (86,4...

Suscríbete para seguir leyendo

Lee sin límites

Cada minuto se produce un ciberataque. Las fuerzas policiales españolas contabilizaron en los primeros seis meses del año 245.191 golpes, un 3,4% más que en el mismo periodo del pasado año, según el Balance de Criminalidad del Ministerio del Interior. Y son solo los registrados, porque muchos casos no se hacen públicos, salvo incidentes graves, para salvaguardar el prestigio de la entidad afectada o porque se resuelve de forma interna o la víctima no es consciente. Los dispositivos digitales son el escenario de uno de cada cinco delitos que, en su mayoría (86,4%), son estafas informáticas: más de 400.000 anuales, un 488,3% más que hace nueve años. Detrás de este imparable auge está la inteligencia artificial (IA), capaz de acelerar, sofisticar, multiplicar y, según Rafael López, ingeniero de seguridad en Check Point Software, “democratizar” las armas, accesibles ya para atacantes con menos conocimientos tecnológicos a un precio de entre 85 y 1.000 euros y con botines que pueden llegar al medio millón.

El delito informático no ha variado mucho: robo, estafa, secuestro y extorsión, principalmente. Pero sí la facilidad para cometerlo. “La IA es actualmente más un acelerador de las técnicas existentes que algo que cambia fundamentalmente la naturaleza de los ataques. Algunos pueden ser más simples de realizar y, por lo tanto, más numerosos; sin embargo, la base de cómo detectar y responder a estos eventos sigue siendo la misma”, explica Chris Betz, director de seguridad de la información de Amazon Web Services al MIT Technology Review.

De esta forma, la IA se ha incorporado tanto a las herramientas para la comisión de delitos como a los sistemas de defensa. “Los agentes [de IA] también pueden desplegarse para detectar vulnerabilidades y protegerse contra intrusos”, dice al MIT Edoardo Debenedetti, de Escuela Politécnica Federal de Zúrich (Suiza). Sin embargo, el crecimiento continuo de los ataques muestra que las acciones de defensa aún no son proporcionales a la proliferación detectada.

Un estudio de Daniel Kang, profesor asistente de la Universidad de Illinois Urbana-Champaign, ha detectado que los agentes de IA actuales son capaces de “explotar con éxito hasta el 13% de las vulnerabilidades sin conocimiento previo” de los datos de la víctima y el 25% si cuentan con un mínimo de información.

“La inteligencia artificial es un arma de doble filo y, ahora mismo, los cibercriminales la están utilizando de una manera masiva: son capaces de replicar páginas web por completo, hacer enlaces o incluso correos que son prácticamente perfectos”, precisa Rafael López. No solo los típicos que suplantan alguna marca, añade, sino incluso también para “lo que se llama la estafa del CEO, en la que te interceptan un correo legítimo o suplantan a una empresa y se ponen a hablar en nombre del directivo o de la persona que tiene que hacer los pagos”.

“Las estafas que se están cometiendo últimamente persiguen un fraude de entre 90.000 y 100.000 euros”, añade. Una de las víctimas de este sistema fue una empresa de hostelería con una facturación falsa que Check Point pudo detectar a tiempo, bloquear el correo y dar aviso a la compañía afectada.

El grado de perfeccionamiento y sofisticación ha llevado incluso a cambiar el criterio de las medidas preventivas. Si antes se buscaban errores gramaticales que evidenciaran una autoría maliciosa, ahora se recomienda lo contrario: “Si te llegó un correo que está demasiado bien escrito, sin faltas de ortografía ni gramaticales, seguramente lo ha escrito la inteligencia artificial. Duda de él”, advierte el especialista en seguridad.

Según el informe de Threat Intelligence de Anthropic, la empresa de inteligencia artificial responsable de Claude, “los ciberdelincuentes y los estafadores han incorporado la IA en todas las etapas de sus operaciones. Esto incluye perfilar a las víctimas, analizar datos robados, robar información de tarjetas de crédito y crear identidades falsas, lo que permite que las operaciones de fraude amplíen su alcance a más objetivos potenciales”.

La IA es incluso capaz de programar el ataque, de configurar el código que infectará los sistemas. “Las herramientas comunes”, matiza Marc Rivero, investigador jefe del Global Research & Analysis Team de Kaspersky, “tienen unos mecanismos de seguridad que impiden que tú le pidas ciertas cosas, pero se las puede engañar o montar entornos de forma local donde tú eres el amo y señor del castillo. Todo eso permite modificarlo a tu gusto y poder pedir lo que tú quieras sin ninguna restricción”.

“En la nueva actualización de ChatGPT se han abordado de forma clara y sustancial los riesgos de sus malos usos implementando nuevas funciones para respuestas más seguras, mecanismos de detección y bloqueo de redes que intenten explotar el modelo con fines maliciosos, salvaguardas robustas para agentes autónomos que actúan en nombre del usuario, y la retirada proactiva de funcionalidades que podrían comprometer la privacidad o la seguridad. Aun así, ChatGPT, como cualquier otro asistente de inteligencia artificial, no es un sistema invulnerable y puede ser manipulado”, advierte Hervé Lambert, director de operaciones en Panda Security, en una publicación de la compañía.

La perfección de los programas puede ser un indicio de la presencia de IA maliciosa. “Los humanos cometen algún error”, añade el especialista de Check Point. “Estos son caros, pero es cierto que hay fórmulas que lo democratizan; por ejemplo, hay plataformas de phishing [suplantación] o malware [programa malicioso] as a service que funcionan por suscripción, con su equipo de soporte por si tienes algún tipo de problema. Se contratan por uso y van desde los 200 o 300 dólares mensuales hasta los 12.000 o 13.000. Los malos funcionan ya como empresas”, advierte.

Las cifras coinciden con el informe de Anthropic, que ha detectado programas de IA “para desarrollar, comercializar y distribuir variantes de ransomware [secuestro de datos y sistemas para exigir rescates], con capacidades avanzadas de evasión, cifrado y mecanismos antirrecuperación”.

“Ahora es tan sencillo y tan fácil conseguir este tipo de herramientas que se ha conseguido industrializar y automatizar. La IA no solo se usa para generar contenido, sino también para sistematizar y que sea mucho más rentable y sencillo ejecutar campañas masivas”, resalta Rafael López.

Anthropic detectó una operación de robo y extorsión a gran escala tras acceder a datos personales de 17 organizaciones distintas, incluidas de atención médica, servicios de emergencia e instituciones gubernamentales y religiosas. En este caso, “la IA se utilizó para automatizar el reconocimiento, la recopilación de credenciales de las víctimas y la penetración en redes. El sistema de inteligencia artificial tomó decisiones tácticas y estratégicas, como decidir qué datos filtrar y cómo elaborar demandas de extorsión psicológicamente dirigidas”.

Esta compañía ha detectado incluso el uso de los nuevos sistemas para acceder a puestos de trabajo en entidades críticas. “La IA permitió crear identidades falsas con antecedentes profesionales convincentes, completar evaluaciones técnicas y de codificación durante el proceso de solicitud de empleo y entregar un trabajo técnico real una vez contratado”.

Según el informe CyberArk Identity Security Landscape 2025 de CyberArk, estas “identidades invisibles” —es decir, cuentas de servicios, bots, agentes de IA, pipelines de desarrollo, etc.—, acceden a datos sensibles sin la supervisión ni los controles adecuados, convirtiéndose en el nuevo vector de riesgo más crítico. “El 94% de las empresas españolas ha sufrido ataques de suplantación, muchos de ellos potenciados por técnicas de deepfake [bulo con apariencia real], y el 60% de las organizaciones ha sido víctima en más de una ocasión”, detalla el informe. “El acceso privilegiado que tienen los agentes de inteligencia artificial supone un riesgo estructural que las compañías aún no están gestionando con la urgencia que requiere”, advierte la compañía.

Sobre la firma

Más información

Archivado En