Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

Facebook prohibirá el contenido “separatista blanco” y “supremacista blanco”

La red social actualiza sus normas dos semanas después del atentado racista de Christenchurch y explica que su definición de discurso de odio trata de no restringir casos como el "orgullo norteamericano" o el separatismo vasco

Facebook
Un miembro del Ku Klux Klan durante las protestas el 8 de julio de 2017 en Charlottesville, Estados Unidos. AFP/Getty Images

Facebook ha anunciado este miércoles a través de un comunicado que prohibirá el “ensalzamiento, apoyo y representación del nacionalismo blanco y el separatismo blanco” tanto en su plataforma como en Instagram. La prohibición se hará efectiva “la semana que viene, dice la compañía, cuya red social llega a más de 1.700 millones de personas en el mundo. Facebook se encuentra desde hace dos años en el punto de mira por su contribución a distribuir discurso de odio y a la organización de grupos violentos a través de su plataforma, que originalmente no juzgaba el contenido de sus usuarios. Hace dos semanas, un supremacista blanco enseñó en directo en Facebook cómo mataba a decenas de personas a tiros en una mezquita en Nueva Zelanda.

El comunicado de la compañía, titulado “plantarse ante el odio”, afirma que “está claro que estos conceptos están profundamente vinculados a los grupos de odio organizados y no tienen cabida en nuestros servicios". Facebook no da una definición precisa de lo que considera “separatismo blanco”. Sí aclara que sus servicios ya prohibían “el odio hacia personas por características como la raza, la etnia o la religión”, conceptos que “siempre han incluido el supremacismo blanco”.

Pero esa prohibición previa no se aplicó a algunas publicaciones que Facebook consideró manifestaciones de conceptos de nacionalismo o independencia política más amplios. Se refiere, a modo de ejemplo, a casos como manifestaciones de “orgullo estadounidense o el separatismo vasco”, por ejemplo, expresiones que Facebook considera “una parte importante de la identidad de las personas”.

A través del comunicado, la compañía sostiene que, en conversaciones con académicos y miembros de la sociedad civil en los últimos tres meses, ha llegado a la conclusión de que existe una vinculación del supremacismo blanco y el separatismo con grupos de odio organizados.

Facebook tiene sus propias definiciones de la clase de contenido que no tolera y es todo aquel que entra en las categorías de actividad terrorista, incitación al odio, asesinato en masa o en serie, trata de personas e incitación a la violencia o a actividades delictivas, según aparece literalmente en sus normas. La compañía ha decidido restringir la definición de nacionalismo blanco al ver “la superposición entre nacionalismo blanco, separatismo blanco y supremacismo blanco”. “De ahora en adelante, si bien las personas podrán seguir demostrando orgullo por su herencia étnica, no toleraremos elogios ni el apoyo al supremacismo blanco y al separatismo blanco”, dice el comunicado.

Facebook ha argumentado que "desafortunadamente" siempre habrá gente que intente utilizar sus sistemas "para propagar el odio". A partir de ahora, cuando se busquen términos asociados con el supremacismo blanco saldrá un enlace a grupos de ayuda como Life After Hate, una organización que busca ayudar a las personas a abandonar esas ideologías. Facebook pone un ejemplo de cómo la búsqueda “Heil Hitler” en la red a partir de ahora llevará a un enlace informativo sobre la prevención del discurso de odio.

La medida se produce casi dos semanas después de que se produjeran los ataques terroristas contra dos mezquitas en Christchurch (Nueva Zelanda), que dejaron al menos 50 muertos. El autor de la masacre había publicado en Facebook un largo manifiesto explicando el motivo de su ataque, centrado en el rechazo hacia los inmigrantes y los musulmanes. Además, grabó fragmentos de la matanza en un vídeo que se propagó rápidamente por la red social. En un principio Facebook arguyó que que no contaba con datos para enseñar a su sistema de control con inteligencia artificial cómo frenar la propagación de este tipo de contenido.

El vídeo en directo del atentado lo vieron 200 personas. La grabación completa, una vez detenida la transmisión, fue vista 4.000 veces en la media hora que tardó en ser denunciada. Se hicieron 300.000 copias antes de ser eliminadas. El sistema de inteligencia artificial con el que la compañía rastrea este tipo de discurso de odio fue incapaz de detectar al asesino y sus planes. “Estamos progresando, pero sabemos que tenemos mucho por hacer”, dice el comunicado de esta semana.

La primera ministra de Nueva Zelanda, Jacinda Ardern, ha aplaudido este jueves la decisión de Facebook y ha señalado que, a pesar de que “estas categorías siempre tienen estar dentro de las guías de la comunidad del discurso del odio”, es “positivo” que la red social se haya aclarado tras el atentado.

Se adhiere a los criterios de The Trust Project Más información >

Más información