_
_
_
_
_

“Google me cerró la cuenta por ‘contenido sexual’. Pero siguen sin aclararme cuál y he perdido todo”

David Barberá, un profesor valenciano, se ha quedado sin acceso a miles de archivos privados en la nube por presuntas imágenes ilegales. Su caso no es el único entre usuarios de las grandes empresas tecnológicas

Google Drive
El profesor valenciano David Barberá, a quien Google ha inhabilitado la cuenta de la nube por presunto contenido sexual.Kike Taberner

Hace cinco años, tras la muerte de un amigo y compañero de grupo musical, David Barberá decidió pagar por una cuenta en la nube de Google Drive. Quería conservar archivos musicales para que los hijos de su amigo oyeran cómo tocaba su padre. “Entonces contraté el servicio de Google Drive”, dice. “Era lo más seguro que se me ocurrió para que la música de Javi no se perdiera, los niños entonces eran muy pequeños”, añade.

Barberá, de 46 años y profesor de secundaria, no había, sin embargo, previsto un detalle clave: los términos de servicio de Google esconden una guillotina que inhabilita cuentas cuando detecta contenido prohibido, como material sexual infantil o terrorismo. “Lo único que se me ocurre pensar es que subí algo que no debía haber subido, como películas descargadas en la época de eMule. ¿Puede haber pornografía infantil o terrorismo? Puede”, explica Barberá desde Valencia a EL PAÍS en una larga conversación telefónica.

Este profesor no sabía qué había pasado. Solo fue encajando piezas al leer foros o artículos en prensa. Barberá describe una desesperante experiencia de indefensión para intentar entender qué ocurrió: en el mes de julio, necesitaba unos archivos de música que tenía en discos duros antiguos. Primero, para organizarlo, empezó a subir todo a su Drive, por el que aún paga cada mes para tener 2 terabytes de espacio. A los pocos minutos de empezar el proceso, Google le inhabilitó la cuenta con un mensaje donde decía que habían encontrado “contenido dañino”.

Inició entonces varios procesos de reclamación, contestó correos de aparentes empleados de Google que le pedían nuevos detalles (Nahuel, Rocío, Laura), llamó a todos los teléfonos de la empresa que encontró sin poder nunca hablar con un humano, pidió ayuda a un familiar periodista e incluso finalmente logró charlar con una aparente empleada de Google, que le pidió “paciencia”.

El contenido sexual

De todo este proceso, solo sacó una respuesta concreta. Fue un mensaje al correo de su mujer (que había añadido en su día como cuenta secundaria), con este texto confuso: “Creemos que tu cuenta incluía contenido sexual que puede infringir las condiciones de servicio de Google y que quizás también esté prohibido por la ley”, empieza, pero luego sigue: “Hemos eliminado este contenido” y “si continúas infringiendo nuestras políticas, podemos cancelar tu cuenta de Google”. Esto ocurrió el 26 de agosto y, aunque parece una advertencia, la cuenta sigue inhabilitada.

“Lo tengo todo ahí de los últimos 14 años, y desde hace cinco, solo lo tengo ahí”, dice, en referencia a que no lo conserva en discos externos. La pérdida de la cuenta de Google no solo implica la desaparición de fotos y vídeos. Barberá ha perdido también sus clases, un blog que llevaba y su cuenta de YouTube. También los servicios que había contratado con su correo, desde Amazon a Netflix, pasando por una aplicación musical alemana: “Ahora debo renovarla, pero cómo les explico que sí, que soy yo, pero no soy yo por un asunto de pederastia o terrorismo... les va a encantar”, ironiza.

El diario The New York Times publicó en agosto dos casos similares en Estados Unidos. Google le contó a la periodista que las imágenes ”prohibidas” eran fotos de genitales de niños que dos padres sacaron para mandar al pediatra por un problema de piel. Cuando EL PAÍS preguntó lo mismo, Google respondió que no podían dar esa información ya que se trata de un usuario europeo y solo iban a compartirla con él. Pero Barberá sigue sin recibir ningún detalle.

Google ha ofrecido a este periódico conversaciones “en segundo plano” con empleados, que en argot significa que el periodista no puede identificar a los interlocutores ni citar sus palabras textuales. Según la compañía, insistiendo que no se referían a este caso, el correo del “contenido sexual” solo se manda en casos de abusos a menores, en ningún caso por porno adulto. ¿Por qué entonces esa frase que implica “no vuelvas a hacerlo”? Google no dio más detalles, aparte de que todo depende de lo que hubiera en esa cuenta. Un empleado de Google preguntó si este periódico iba a nombrar al usuario afectado, pero no aclaró por qué le interesaba saberlo.

EL PAÍS ha encontrado otros tres casos similares al de Barberá: dos más con cuentas de Google y uno de Microsoft. Todos los casos son de 2022 y solo en un caso la cuenta ha vuelto de momento a su propietario. Pero no era por presuntas imágenes sexuales de niños, sino por un problema con la contraseña que tampoco fue nunca aclarado.

Los otros tres usuarios entrevistados por EL PAÍS están en el limbo de las grandes corporaciones, que en realidad son demasiado pequeñas para gestionar más de mil millones de cuentas.

Un amigo en Google

Otra víctima, que ha pedido no aparecer con su nombre porque su empresa puede tener a Google de cliente, recurrió a ”un amigo íntimo” que trabaja dentro de la compañía en España. El amigo no trabaja en un departamento vinculado a la moderación de contenido, pero investigó internamente qué solía ocurrir en estos casos. Su respuesta fue poco optimista: esto se gestiona en el extranjero y ni idea de si alguien realmente leerá la reclamación. Le dio poca esperanza.

Como en el caso de Barberá, este usuario había visto su cuenta inhabilitada tras subir 40 gigas de fotos, vídeos y conversaciones de WhatsApp que tenía en su disco duro. La subida de archivos fue tan notable que los encargados de ciberseguridad de su empresa lo llamaron para preguntarle qué ocurría. Google no aclara cuándo ni cómo analiza las cuentas de sus usuarios. Pero tanto en los casos de The New York Times en Estados Unidos como en estos dos, se produjo al detectar movimiento de archivos. En los casos españoles, cuando hubo subidas masivas de datos.

La tercera víctima ha puesto su caso contra Microsoft en manos de la abogada Marta Pascual, que está preparando la demanda. Su cliente está desesperado porque ha perdido datos de su vida privada pero también laboral: “Su máster del IESE, los impuestos, las fotos de los nacimientos de hijos y bases de datos del trabajo. Está sufriendo”, dice Pascual. No ve otra salida que demandar. “El juez puede decir que ha visto vulnerado su derecho a la intimidad, aunque no he encontrado jurisprudencia”, añade.

El cliente de Pascual cree que los archivos sospechosos vienen de grupos de WhatsApp, cuyo contenido conservaba y subía automáticamente. Los tres afectados tienen hijos y, aunque no recuerdan fotos para el pediatra, sí tenían las típicas imágenes de niños en la bañera, cama o piscina.

Microsoft tampoco da detalles

Microsoft aún da menos información que Google. Solo manda unas declaraciones sobre cómo lucha contra la pederastia en sus sistemas: “Primero, financiamos investigaciones para comprender mejor cómo los delincuentes abusan de la tecnología. Segundo, desarrollamos tecnología como PhotoDNA para detectar casos de explotación sexual infantil. Tercero, nuestro personal de agentes investiga rápido los informes de contenido violatorio y lo elimina. Y cuarto, trabajamos con otras empresas de tecnología y las fuerzas del orden público para remitir los delitos”.

Como Microsoft, en una conversación que este periódico mantuvo con Google, la confianza en sus sistemas de detección es notable. De hecho, su software se ha refinado o cada vez encuentra más falsos positivos: entre julio y diciembre de 2021 suspendió 140.868 cuentas, casi el doble respecto al primer semestre de 2020.

Google analiza cuentas para buscar material sexual infantil con dos tecnologías: las imágenes ya conocidas tienen un código numérico que las identifica. Si sus sistemas encuentran imágenes que coinciden con esos códigos, inhabilita. Es el sistema PhotoDNA citado por Microsoft.

El problema son las nuevas. Para esas, Google ha creado un segundo sistema de visión por ordenador que interpreta las imágenes y les asigna una probabilidad de que sean pedofilia. Luego, en teoría, van a revisores humanos que deciden si una foto cruza el umbral sexual. La compañía está preocupada ahora por el material creado por jóvenes en exploración sexual sin más, que puede sacarse de ese contexto.

Google también ha hablado con pediatras por ejemplo para que el ordenador sepa distinguir en qué momento el cuerpo de un adolescente ya es adulto. La pretensión de objetividad con un fin loable puede hacer que caigan también muchas víctimas inocentes.

La fina línea roja

La misma fina línea roja recorren cuando se trata de las típicas fotos de niños en piscinas o ambientes inocentes. Google se preocupa porque, fuera de su contexto o retocadas, esas fotos pueden acabar en archivos compartidos entre pedófilos. Google se centrará en casos supuestamente flagrantes, pero este periódico publicó una historia sobre atletas adolescentes y niñas cuyos cuerpos eran usados en YouTube con fines dudosos y los vídeos siguen en abierto.

Los usuarios afectados por estas suspensiones quizás reciban un día otra llamada: la Policía. “Tengo un amigo que es policía nacional y lo llamé para contarle el caso y me dijo que lo miraría con delitos informáticos”, dice Barberá, el profesor valenciano. “Le dijeron que no conocían ningún caso como el mío”. Sin embargo, es probable que algún caso haya llegado a España por el esfuerzo de las grandes corporaciones. Google o Microsoft deben informar de sus hallazgos sospechosos al centro nacional para menores desaparecidos y explotados (NCMEC) de Estados Unidos. El centro es quien avisa a las policías nacionales.

El NCMEC mandó a España 33.136 informes en 2021. Fuentes de la Policía confirman que ese es el proceso habitual y que puede ser que reciban informes con una o pocas imágenes. Suelen ser casos que no se investigan. De todos modos, la Policía no informa de vuelta a Google o Microsoft de que esa persona no es sospechosa. Las compañías toman sus propias decisiones y dependen de que la víctima pueda justificar la presencia del material detectado. Para eso, sin embargo, deben informar de cuál es ese material, lo que no siempre ocurre. Es probable que si, en su opinión, los archivos encontrados son de una gravedad extrema o en cantidades enormes, ya no haya ni opción de recurso.

Rubén Losada es un periodista que se quedó sin cuenta por un problema al introducir la contraseña. Por algún motivo, explica, Google creyó que no era él. Losada estaba en Tenerife de viaje y necesitaba pillar un bus con urgencia. Por alguna razón, Google le pidió su contraseña. Se equivocó varias veces y quiso introducir una nueva. Entonces quedó bloqueado. Losada cree que el cambio de residencia y los errores lo fulminaron.

Aunque el inicio de su caso es distinto al del resto, la indefensión y el muro fueron parecidos. Como el resto, Losada pagaba por su cuenta y aun así nunca encontró un interlocutor. Se planteó acudir a los tribunales. No iba a perder su cuenta de ningún modo, dice. Cada dos o tres semanas reclamaba de nuevo. Pero a los seis meses pudo volver a acceder, sin saber por qué: “Un conocido que es analista de seguridad me dijo que a veces estos sistemas están programados así y a los seis meses se reinician”, dice.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Jordi Pérez Colomé
Es reportero de Tecnología, preocupado por las consecuencias sociales que provoca internet. Escribe cada semana una newsletter sobre los jaleos que provocan estos cambios. Fue premio José Manuel Porquet 2012 e iRedes Letras Enredadas 2014. Ha dado y da clases en cinco universidades españolas. Entre otros estudios, es filólogo italiano.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_