El ‘consejo asesor’ de Facebook tumba cuatro supresiones de contenido de la red en sus cinco primeras sentencias
En las próximas semanas, el organismo creado por la compañía emitirá la decisión más importante de su corta vida: ¿puede volver Trump a la red social?
El consejo asesor de contenido de Facebook ha publicado sus cinco primeras sentencias sobre casos remitidos por usuarios y la compañía sobre supresiones de contenido. Los usuarios pedían que sus posts en esta red o en Instagram volvieran a ser visibles mientras que la empresa preguntaba si su decisión había sido acertada. Los casos tienen que ver con el discurso de odio, la incitación a la violencia o la desnudez y tienen su origen en Francia, Brasil, Estados Unidos o Azerbayán.
Un usuario brasileño había visto como una imagen con varios pezones femeninos que pedía visibilidad pa...
El consejo asesor de contenido de Facebook ha publicado sus cinco primeras sentencias sobre casos remitidos por usuarios y la compañía sobre supresiones de contenido. Los usuarios pedían que sus posts en esta red o en Instagram volvieran a ser visibles mientras que la empresa preguntaba si su decisión había sido acertada. Los casos tienen que ver con el discurso de odio, la incitación a la violencia o la desnudez y tienen su origen en Francia, Brasil, Estados Unidos o Azerbayán.
Un usuario brasileño había visto como una imagen con varios pezones femeninos que pedía visibilidad para el cáncer de mama había sido retirada. El consejo no está de acuerdo y pide a Facebook guías más claras sobre la eliminación automática de contenido y en su política sobre pezones femeninos y tumores: “Informen mejor cuando una decisión automatizada se usa para moderar contenido, aseguren que los usuarios pueden apelar estas decisiones a un ser humano en algunos casos y mejoren los sistemas de detección automáticos de imágenes con texto por encima para que publicaciones que quieren llamar la atención sobre síntomas del cáncer de mama no son erróneamente marcados para revisión”, dice el consejo en su texto sobre el caso.
El organismo, anunciado en mayo de 2020 y que recibe casos desde octubre, es la última instancia para las quejas de sus usuarios sobre qué contenido puede seguir o no en la plataforma. Tras estas primeras decisiones, el consejo tiene entre manos un caso realmente complejo, remitido por la propia compañía: ¿debemos dejar que Donald Trump vuelva a Facebook e Instagram? Viendo de momento que de los cinco primeros casos, en cuatro han optado por anular la decisión de Facebook, las esperanzas del expresidente de EE UU de volver a la plataforma son de repente mucho mayores. Antes de enviar el caso al consejo asesor, la compañía había optado por no permitir la vuelta de Trump. Este gesto le ofrece una nueva oportunidad. “El panel designado está apenas empezando a analizar este caso”, ha dicho el copresidente del consejo Michael McConnell durante una rueda de prensa telefónica con periodistas de todo el mundo
Entre los casos cubiertos hay uno sobre desinformación y covid en Francia. Un usuario publicó un post quejándose sobre la no recomendación de la hidroxicloroquina. Facebook lo eliminó porque podía suponer “daño inminente” para otros usuarios. Ahora el consejo dice a Facebook que hizo mal porque no cumplieron los “estándares internacionales sobre libertad de expresión” y porque “el usuario se estaba oponiendo a una política del Gobierno y aspiraba a cambiarla”, dice. “La combinación de medicinas que describía el post constituye una cura que no está disponible sin receta en Francia y el contenido no animaba a comprar o tomar medicamentos sin receta”, añade. En una rueda de prensa telefónica del consejo con periodistas de todo el mundo, la copresidenta del consejo, Helle Thorning-Schmidt , ha dicho que este tipo de decisiones lo que harán será complicar la vida aún más a Facebook: “Es un caso difícil y entendemos por qué Facebook eliminó ese contenido. Es quizá más fácil suprimir algo que hilar fino”, ha dicho durante el encuentro telefónico con periodistas.
La vicepresidenta de Políticas de Contenido de Facebook, Monica Bickert, ha publicado una respuesta de la compañía a estas primeras resoluciones. Celebra que puedan seguir recibiendo dictámenes “durante años”, pero en el caso concreto de desinformación y covid no van a modificar sus políticas comunitarias: “Es clave para todos que tengamos acceso a información precisa y nuestro plan actual de suprimir desinformación está basado en consultas extensas con científicos punteros, tanto estadounidenses como de la Organización Mundial para la Salud. Durante una pandemia este plan no cambiará”, dice Bickert.
Esta especie de tribunal supremo de Facebook está formado de momento por 20 personalidades globales. Entre ellas están la Nobel de la Paz en 2011, la yemení Tawakul Kerman; la citada ex primera ministra danesa Helle Thorning-Schmidt o el director del diario The Guardian durante dos décadas, Alan Rusbridger. La única hispanohablante es la abogada colombiana Catalina Botero-Marino, decana de la Facultad de Derecho de la Universidad de Los Andes y relatora entre 2008 y 2014 para la libertad de expresión en la Organización de Estados Americanos.
El único caso en que el consejo ha reforzado la posición de Facebook ha sido en su decisión de eliminar un post de un usuario que usaba una palabra despectiva rusa para referirse a la población de Azerbayán y decía que no tenían historia en comparación con los armenios.
Los dos últimos casos donde el consejo ha revocado la decisión de Facebook tienen que ver con una cita del nazi Joseph Goebbels y las tristemente célebres imágenes de Aylan Kurdi, el niño sirio refugiado muerto en la orilla de una playa. La sentencia critica la traducción que hizo Facebook del texto -y que parecía insinuar que los musulmanes estaban “mal de la cabeza”, lo que no es exacto- y por tanto anula su decisión. El texto del consejo reduce la crítica del post a comparar la falta de reacción entre musulmanes por el trato a la minoría uigur en China y en cambio la sobrerreacción por las caricaturas de Mahoma en la revista Charlie Hebdo.
La cita de Goebbels se refería a que “en lugar de apelar a los intelectuales, los argumentos deberían apelar a las emociones y al instinto. Facebook suprimió la cita porque Goebbels está en la lista de “individuos peligrosos” de Facebook y el post no iba acompañado de contexto, con lo que se presuponía algún tipo de apoyo. No es cierto, dice el consejo, que el usuario apoye el nazismo, sino que solo quería comparar con la presidencia de Trump y se ve en los comentarios de los amigos del usuario, siempre según el consejo. Por tanto, no ven motivo para eliminar la cita de Goebbels en este caso.
Este análisis extremadamente pormenorizado de los posts de Facebook va a suponer bastantes anulaciones de sus decisiones. Sus moderadores habitualmente toman las decisiones sin tiempo o incluso no llegan a un humano porque un sistema automatizado las ha eliminado. El caso de Trump puede ser distinto bajo esta perspectiva porque no es una decisión que la dirección de Facebook haya tomado a la ligera.
Cinco miembros del panel analizan un caso, que luego debe ser confirmado por el resto. Al menos uno de los miembros debe ser de la región origen de la polémica. “Cuando el Consejo haya tomado una decisión sobre estos casos, Facebook deberá implementarla y responder públicamente a cualquier recomendación sobre las políticas que emita el Consejo”, dice el propio organismo.
Según ha podido saber el New York Times, los miembros dedican unas 15 horas semanales a esta labor y cobran una cantidad de seis cifras al año. Facebook dio 130 millones de dólares para la gestión de este consejo y se desentendió de su funcionamiento.
Este organismo puede marcar un hito en el modo en que se regula el discurso en las redes. También puede ser la excusa perfecta para que la dirección de Facebook se descargue de la responsabilidad de moderar los casos más graves de su plataforma. La salida de Trump es el más sonado. Mark Zuckerberg se ha comprometido a aceptar la resolución del consejo.
Facebook se ha mostrado abierto a que este consejo asuma decisiones de otras plataformas y sea el gran tribunal del discurso en internet. De momento, ninguna otra plataforma ha anunciado ningún intento de colaboración. Al contrario, Twitter ha presentado Birdwatch, una herramienta que daría más control sobre qué se dice en su red a un grupo de usuarios, como ocurre por ejemplo en la Wikipedia.
Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.