‘Podcast’ | Desnudos falsos: cuando la inteligencia artificial se usa para el acoso machista
El 96% de las creaciones ‘deepfake’ es de contenido pornográfico y no hay jurisprudencia clara para combatir este tipo de fraudes
La inteligencia artificial ha entrado en otra fase: lo hemos visto con el escándalo de las fotos de desnudos falsos de menores en Almendralejo (Badajoz). Hoy cualquiera puede usar esta tecnología para acosar. En este caso, las víctimas son mujeres. Tanto ellas como los que han manipulado sus imágenes son menores. Y, aunque se trata de un delito, no está tan claro qué y cómo debe perseguirse.
Con los periodistas Manuel Viejo, Ana Torres Menárguez y Raúl Limón
* Al cierre de la edición de este podcast el número de menores afectadas era de 20. En las horas sucesivas el número ha aumentado a 22.
CRÉDITOS:
Disponible en todas las plataformas de podcast: Podium Podcast | Podimo | Spotify | Apple Podcasts | iVoox | Podcasts de Google | Amazon Music | Alexa | RSS Feed
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.