Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

Facebook alega que carece de vídeos de atentados como el de Nueva Zelanda para evitar su difusión

La compañía defiende que no cuenta con datos de estas características para enseñar a su sistema de control con inteligencia artificial. Nueva brecha de seguridad en la red social

atentados nueva zelanda 2019
Brenton Tarrant, en el vídeo que graba antes de entrar a la mezquita Al Noor de Christchurch (Nueva Zelanda) para iniciar la matanza. Europa Press

Brecha de seguridad interna en la red social de Zuckerberg

Facebook ha reconocido en un comunicado que sus empleados han podido tener acceso a contraseñas guardadas en formato legible en los sistemas de almacenamiento de la compañía. La brecha de seguridad ha sido detectada en enero, después de años de funcionamiento del servidor donde se conservaban las claves de acceso.

La brecha fue detectada al percibir que había acceso a la información, pese a que el sistema de identificación del usuario las debería hacer ilegibles. "Hemos arreglado este asunto y, como precaución, se lo comunicaremos a todos los usuarios cuyas contraseñas hayan sido almacenadas de esta forma [con formatos legibles]", ha afirmado la compañía.

La red social asegura que esas contraseñas eran invisibles para quienes no trabajaran en la compañía y que "no se han encontrado evidencias hasta la fecha de que nadie de la empresa haya abusado o tenido acceso a las mismas".

Las notificaciones se distribuirán entre "cientos de millones de usuarios de Facebook y decenas de miles de Instagram.

El sistema de inteligencia artificial (IA) de Facebook para prevenir la difusión de imágenes dañinas no fue capaz de identificar la retransmisión en directo del atentado de Christchurch en Nueva Zelanda, en el que murieron 50 personas y varias decenas de personas resultaron heridas. El vicepresidente de la compañía, Guy Rosen, ha remitido este jueves una explicación: “Los sistemas de IA están basados en datos que los entrenan, lo que significa que se necesitan miles de ejemplos de este contenido para entrenar a un sistema capaz de detectar ciertos tipos de texto, imágenes o videos. Ha funcionado muy bien con temas como desnudos, propaganda terrorista y también con gráficos de violencia, de los que hay un gran número de ejemplos que podemos usar para entrenar a nuestros sistemas". Para conseguir el mismo resultado en situaciones como la de Nueva Zelanda, añade el directivo, "tenemos de dotar a nuestros sistemas de un gran volumen de datos de este tipo de contenidos, lo que es difícil en estos eventos [el atentado] y son afortunadamente raros”.

Rosen admite la “increíble importancia” de la lucha contra el terrorismo a través de la red social y que el sistema “nunca va a ser perfecto”. Por esta razón apela a las personas como “parte de la ecuación”, tanto aquellas encargadas de la revisión de contenidos como los usuarios que denuncian la existencia de información inapropiada.

El video de los atentados fue eliminado a los pocos minutos de su ejecución, pero pudo ser visualizado 200 veces durante su retransmisión en directo sin que ningún usuario lo denunciara en ese momento. El contenido completo, tras el crimen, se reprodujo 4.000 veces hasta que fue remitido a Facebook (29 minutos después del comienzo de la matanza y 12 minutos tras el final de la retransmisión en directo) un enlace donde se podía acceder a una grabación del mismo. Unas 300.000 copias fueron eliminadas.

Facebook Live, que permite emitir en directo acontecimientos, ha sido también una puerta para contenidos inapropiados que Facebook intenta controlar de forma prioritaria con sus sistemas. El principal objetivo de prevención son las imágenes relacionadas con suicidios y actos dañinos, como las autolesiones.

Fotograma de la retransmisión hecha por el atacante de la mezquita de Al Noor, en Christchurch (Nueva Zelanda).
Fotograma de la retransmisión hecha por el atacante de la mezquita de Al Noor, en Christchurch (Nueva Zelanda). AFP

800 formatos diferentes

La experiencia de Nueva Zelanda ha servido para que la compañía revise los protocolos de control y denuncia con el fin de acelerar la toma de decisiones.

Ahora, Facebook reconoce la dificultad de evitar difusiones a través de otras redes sociales o plataformas de intercambio de ficheros. Se trata de copias que algunos usuarios de cualquier parte del mundo consiguieron a través de aplicaciones o servicios de Internet, capturando los vídeos de algunas páginas o grabando con sus móviles las pantallas.

El hecho de que se conozca la existencia del video ha hecho que mucha gente lo busque, admite Rosen, quien advierte que su compañía prohíbe la difusión de estas imágenes.

Durante las primeras 24 horas, Facebook ha eliminado 1,2 millones de vídeos, pero el vicepresidente de la red social entiende que existen grupos subiendo nuevas copias a Internet y en versiones preparadas para evitar la detección de los sistemas informáticos. Se han registrado  hasta 800 variantes de formatos. Ante estas circunstancias, se han empleado tecnología de identificación de audio para afinar más las búsquedas.

Se adhiere a los criterios de The Trust Project Más información >

Más información