Bruselas penalizará material generado por IA y las ‘deepfake’ sexuales de menores como pornografía infantil
La Comisión Europea quiere actualizar la legislación para ampliar las definiciones de abuso e incluir nuevas fórmulas digitales y extenderá los tiempos de prescripción de los delitos
Las fotografías, vídeos y diverso material pornográfico de menores generados con Inteligencia Artificial, como las conocidas como deepfake —imágenes falsas hiperrealistas—, serán considerados en la Unión Europea...
Las fotografías, vídeos y diverso material pornográfico de menores generados con Inteligencia Artificial, como las conocidas como deepfake —imágenes falsas hiperrealistas—, serán considerados en la Unión Europea como material de abuso sexual infantil. Su fabricación, posesión y distribución será, por tanto, delito, como las imágenes tradicionales. La Comisión Europea se dispone a actualizar una de sus directivas de protección de menores y a ampliar la definición de delitos penales relacionados con el abuso sexual a menores en todos los Estados miembros, donde ahora no hay una doctrina común o una fórmula tan claramente pautada sobre ese ángulo tecnológico. La propuesta de regulación, que el Ejecutivo comunitario tiene previsto aprobar el martes y que aún necesitará la validación del Consejo de la UE y el Parlamento Europeo, también ampliará el plazo de prescripción de los delitos para dar a los supervivientes más tiempo para denunciar, según los documentos a los que ha tenido acceso EL PAÍS.
El aumento de las imágenes de abusos infantiles generadas por IA, el nacimiento de programas que ofrecen incluso experiencias “sensoriales” o la abundancia en Internet de manuales pedófilos que explican cómo abusar de menores y no ser detectado y perseguido, pero que, al no tener fotos o elementos explícitos, su producción o posesión no se considera delito en la mayoría de los Estados miembros, son un problema creciente, señala el Ejecutivo Comunitario. Bruselas busca ahora enmendar y actualizar la directiva europea vigente (de 2011) para cubrir las lagunas y los desafíos derivados de los cambios sociales y tecnológicos en un mundo con una mayor presencia online de los menores y también de depredadores sexuales, dice uno de los textos de la regulación. Solo en 2022 hubo 1,5 millones de denuncias de abuso sexual infantil en la UE, según los datos que maneja la Comisión.
Con las nuevas enmiendas a la normativa actual, quien produce este material pornográfico infantil de deepfakes y otras modalidades se enfrentará hasta un mínimo de tres años de cárcel; la posesión y distribución podrá castigarse con hasta un mínimo de dos años de prisión. Hasta ahora, los Veintisiete no han seguido una pauta clara y unificada sobre las imágenes de pornografía infantil hiperrealistas o hacia otro tipo de contenidos que corren por las redes, como esos manuales pedófilos —Países Bajos y Alemania enmendaron su legislación recientemente para criminalizarlos— que, explica la Comisión, se pueden encontrar en la Red. Y no en la dark web, sino en las redes sociales y diversas plataformas. Textos que también aconsejan sobre cómo ocultar el material.
En España, en septiembre del año pasado, el caso de decenas de menores de Almendralejo (Extremadura) que detectaron imágenes creadas con IA para mostrarlas desnudas encendió las alarmas sobre este nuevo tipo de abuso. El Código Penal español incluye la “pornografía virtual o técnica infantil” (antes, hasta 2015, la “pseudopornografía”) que implica el uso de la imagen alterada o modificada de los menores o su voz, aunque descarta “los materiales que por su tosquedad revelen su condición de montaje”, lo que, depende del caso, ya implica que será un proceso judicial el que podría decidir si el material implicado o no es susceptible de delito. Otros Estados miembros han actualizado sus legislaciones en los últimos años para incluir definiciones similares o pueden perseguir estas acciones a través de la regulación sobre privacidad. La modificación de la directiva europea busca eliminar ambigüedades, tapar esas grieta y establecer una directriz clara.
Las deepfake son un problema creciente y una forma de violencia sexual, sobre todo contra las mujeres —hay numerosos casos famosos, como el de la cantante Taylor Swift—, pero también es una forma de abuso de menores. Organizaciones como la Internet Watch Foundation advierten de que se están usando imágenes de menores famosos, fotografías y vídeos recogidos al azar y también de víctimas de abusos para generar ese nuevo material.
La actualización de la directiva también incluye un artículo que garantizará que los Estados miembros criminalicen y prevean investigar y enjuiciar delitos de “transmisión en vivo” de abusos sexuales infantiles, algo que, según Bruselas, ha experimentado un aumento considerable en los últimos años y plantea “desafíos de investigación específicos”, porque la evidencia de los abusos transmitidos puede desaparecer, con la consiguiente falta de pruebas para la investigación.
Antecedentes penales
La regulación europea enmendada establece también que los reclutadores para actividades que impliquen “contacto cercano” con niños y organizaciones que trabajan contra el abuso sexual infantil deberán solicitar conocer los antecedentes penales de los candidatos, algo que ya es así en España.
La Comisión amplía, además, el derecho a la denuncia y a la reparación de quienes han sufrido estos abusos y extiende, para toda la UE, el tiempo de prescripción, que no empezara a correr, además, hasta que la persona afectada cumpla la mayoría de edad. Ahora hay Estados miembros que han abolido por completo la prescripción para este tipo de delitos y otros que tienen plazos muy breves, una diferencia, dice el Ejecutivo comunitario que “genera un acceso desigual a la justicia para las víctimas en toda la UE”. En España un cambio legal en 2021 marca que en determinados delitos, como contra la libertad sexual, en tiempo de prescripción no empieza a correr hasta que la víctima cumple 35 años.
Los estudios que maneja la Comisión revelan que los supervivientes de abusos sexuales en la infancia tardan en su mayoría décadas en hablar. Entre el 60% y el 70% de los supervivientes no revelan lo que les ha sucedido hasta que son adultos, y el 27,8% de los supervivientes no se lo cuentan a nadie.
Así, los delitos penados con una pena máxima de al menos tres años de prisión no prescribirán hasta un mínimo de 20 años después de esa mayoría de edad. Los penados con al menos cinco años prescribirán solo tras al menos 25 años, es decir, hasta que la víctima tenga 43 años. Los castigados con ocho años solo expirarán 30 años después de que la víctima sea mayor de edad.
Las enmiendas a la regulación de la Comisión, esbozadas bajo la vicepresidencia de Promoción del modo de vida europeo de Margaritis Schinas —que reúne asuntos sociales y de interior—, aún deberán ser aprobadas por el Consejo de la UE (los Estados miembros) y por el Parlamento Europeo. El cambio trata de incluir definiciones de abuso sexual infantil de una manera suficientemente neutral que cubra los avances tecnológicos futuros para no quedar de nuevo desactualizada. Además, obligará a los Veintisiete a hacer una encuesta demográfica periódica y también a recopilar y compartir estadísticas a fondo sobre el problema con el Centro de la UE para prevenir y combatir el abuso sexual infantil, para poder tener una radiografía a nivel europeo que facilite las políticas, explican fuentes comunitarias. Dentro de la regulación actualizada, Bruselas dispone, también, que se debe ampliar el derecho a la reparación e indemnización de las víctimas.
La actualización forma parte de un plan más amplio en el que está también la directiva contra el abuso sexual online, que establece obligaciones para que las empresas de internet detecten, informen y eliminen material de abuso sexual infantil en sus servicios. Una regulación que se ha vuelto controvertida y que critican algunas empresas tecnológicas y organizaciones de derechos digitales— que la han llegado a denominar “chat control”, ya que alegan que es en realidad una directiva que podría usarse para espiar—. También se han opuesto a esa regulación, actualmente bloqueada, países como Alemania, que alude a cuestiones de privacidad. En cambio, las organizaciones de protección de la infancia la reclaman.
Acceso a la pornografía
Dentro de ese paquete legislativo para mejorar la protección de los menores europeos, la Comisión también incluyó un capítulo dentro de la nueva Ley de Servicios Digitales (DSA). Desde mediado de mes, los grandes portales de pornografía online —como Pornhub o Xtube— tendrán que cumplir estándares más estrictos para verificar la edad del usuario y así garantizar–. que no acceden menores, y obliga a que tomen medidas para suprimir contenidos ilegales.
En España, el Gobierno ha anunciado el diseño de una aplicación para garantizar que los menores no acceden al porno, como anunció el presidente Pedro Sánchez en una entrevista con EL PAÍS, aunque su diseño y funcionamiento es un desafío, según han expresado los especialistas.