Facebook restringe Live tres meses después del atentado de Nueva Zelanda

Twitter se suma al frente contra el movimiento antivacunas y redirigirá las búsquedas a enlaces de autoridades sanitarias

Brenton Tarrant, en el vídeo que graba antes de entrar a la mezquita Al Noor de Christchurch (Nueva Zelanda) para iniciar la matanza.Polaris (Europa Press)

Hasta ahora, cualquier violación de las normas de Facebook suponía la eliminación de la publicación en concreto y solo se bloqueaba la cuenta, a veces temporalmente, si el usuario mantenía la actitud o, de inmediato, en casos de propaganda terrorista o pederastia. Estas normas se aplicarán desde ahora a Live y desde el primer momento.

Con el ataque en Chistchurch no funcionó. El vídeo de los atentados (hasta 1,2 millones de copias) fue eliminado a los pocos minutos de su ejecución, pero pudo ser visualizado 200 veces durante su retransmisión en directo sin que ningún usuario lo denuncia...

Suscríbete para seguir leyendo

Lee sin límites

Tres meses después de la retransmisión en directo de los atentados de Nueva Zelanda, Facebook ha decidido implantar medidas de control y anunciado que, desde este miércoles, prohibirá el uso de la aplicación Live, que permite emitir vídeo en tiempo real, a cualquier usuario que viole las normas de la red social sobre organizaciones o individuos peligrosos. La medida se aplicará desde el primer momento que se detecte una publicación vinculada a un acto violento o a la difusión de odio. Es una de las medidas de las redes sociales contra la difusión de contenidos peligrosos, campaña a la que se ha sumado Twitter al anunciar que redirigirá las consultas contrarias a las vacunas a enlaces de autoridades sanitarias donde se explica el daño de esta actitud en la salud individual y pública.

Hasta ahora, cualquier violación de las normas de Facebook suponía la eliminación de la publicación en concreto y solo se bloqueaba la cuenta, a veces temporalmente, si el usuario mantenía la actitud o, de inmediato, en casos de propaganda terrorista o pederastia. Estas normas se aplicarán desde ahora a Live y desde el primer momento.

La medida se produce después de que el vicepresidente de la compañía Guy Rosen haya reconocido que el sistema de inteligencia artificial (IA) de Facebook para prevenir la difusión de imágenes dañinas no fue capaz de identificar la retransmisión en directo del atentado de Christchurch en Nueva Zelanda, en el que murieron 50 personas y varias decenas de personas resultaron heridas. “Los sistemas de IA están basados en datos que los entrenan, lo que significa que se necesitan miles de ejemplos de este contenido para entrenar a un sistema capaz de detectar ciertos tipos de texto, imágenes o vídeos. Ha funcionado muy bien con temas como desnudos, propaganda terrorista y también con gráficos de violencia, de los que hay un gran número de ejemplos que podemos usar para entrenar a nuestros sistemas".

Fotograma de la retransmisión hecha por el atacante de la mezquita de Al Noor, en Christchurch (Nueva Zelanda). AFP

Con el ataque en Chistchurch no funcionó. El vídeo de los atentados (hasta 1,2 millones de copias) fue eliminado a los pocos minutos de su ejecución, pero pudo ser visualizado 200 veces durante su retransmisión en directo sin que ningún usuario lo denunciara en ese momento. El contenido completo, tras el crimen, se reprodujo 4.000 veces hasta que fue remitido a Facebook (29 minutos después del comienzo de la matanza y 12 minutos tras el final de la retransmisión en directo) un enlace donde se podía acceder a una grabación del mismo. Muchas capturas y copias en 800 variantes de formatos se han seguido distribuyendo por redes alternativas.

Rosen ha anunciado la nueva medida de restricción de Live, que se acompaña de una inversión de 6.688.068 euros en tres universidades para mejorar la tecnología de análisis de imágenes y vídeos. Para evitar esta situación, Maryland, Cornell y Berkeley investigarán en sistemas de detección de imágenes, vídeos o sonidos manipulados de forma intencionada.

Twitter se suma al frente contra el movimiento antivacunas

La campaña de las redes sociales contra la desinformación y difusión de bulos e informaciones dañinas también ha continuado en Twitter, donde se ha aplicado una herramienta que redirige a “fuentes sanitarias públicas creíbles” cualquier búsqueda relacionada con vacunas.

La herramienta se ha comenzado a aplicar en varios idiomas en Estados Unidos, Canadá, Reino Unido, Suramérica, Corea, Japón, Indonesia y Singapur.

La medida ya se utilizaba en búsquedas relacionadas con los suicidio o daños autoinflingidos y supone evitar el despliegue en el buscador de enlaces a comentarios, anuncios o páginas contrarias a las vacunas. Por el contrario, las sugerencias irán orientadas a informaciones de autoridades sanitarias públicas para difundir la información veraz.

El Fondo de la ONU para la Infancia (Unicef) inició la campaña #VaccinesWork (#VacunarFunciona) para concienciar a través de redes sociales sobre la importancia de proteger la salud de los menores. La organización insiste en que las campañas de vacunación contra el sarampión, la neumonía, el cólera o la difteria salvan tres millones de vidas anualmente. Alrededor de 1,5 millones de niños murieron en 2017 debido a enfermedades para las que existen vacunas y se ha registrado un "peligroso aumento de brotes de sarampión en países de rentas altas" debido, entre otras cosas, a "la desinformación en medios digitales y redes sociales".

Sobre la firma

Más información

Archivado En