El ‘tribunal supremo’ de Facebook empieza a revisar casos
El consejo asesor de contenido de la red social dictaminará qué contenido se puede ver en la plataforma
Dos semanas antes de las elecciones de Estados Unidos, el nuevo tribunal supremo de Facebook empezará a recibir casos para revisar. Facebook anunció en mayo la composición y el inicio de los trabajos de su consejo asesor de contenido de 20 miembros. Ahora, cinco meses después, anuncia su puesta en marcha. Los usuarios a quienes se les retire contenido o el propio Facebook pueden desde hoy apelar al consejo para que resuelva c...
Dos semanas antes de las elecciones de Estados Unidos, el nuevo tribunal supremo de Facebook empezará a recibir casos para revisar. Facebook anunció en mayo la composición y el inicio de los trabajos de su consejo asesor de contenido de 20 miembros. Ahora, cinco meses después, anuncia su puesta en marcha. Los usuarios a quienes se les retire contenido o el propio Facebook pueden desde hoy apelar al consejo para que resuelva con su opinión. A pesar de la cercanía con las elecciones estadounidenses, Facebook ha advertido que no enviará ninguna decisión por trámite de urgencia al tribunal sobre las elecciones: “Hemos creado este organismo para el largo plazo”, ha dicho Brent Harris, director de asuntos públicos de Facebook, en una rueda de prensa telefónica celebrada este jueves.
La puesta en marcha de la revisión de casos implica que probablemente en enero empiecen a llegar las primeras resoluciones. El organismo tiene un plazo máximo de 90 días para resolver y habrá además un procedimiento de urgencia para casos especialmente delicados: “Ese procedimiento de urgencia no exime a Facebook de actuar mientras no llega el dictamen, que puedo retrasarse unos días”, ha dicho Helle Thorning-Schmidt, copresidenta del tribunal y ex primera ministra de Dinamarca.
Las decisiones del consejo serán vinculantes para Facebook. A pesar de los millones de posibles peticiones de revisiones que pueda recibir, de los casos que seleccionen y los dictámenes que emitan dependerá en el fondo lo que vean los usuarios de la plataforma. Los miembros del consejo no han querido aventurar qué casos concretos creen que van a afrontar al principio, pero Thorning-Schmidt ha admitido algunos como inevitables: “Discurso de odio, desnudez, fact-checking”, ha dicho. “La desinformación es también un motivo de gran preocupación para el consejo”, ha añadido. Harris ha afirmado que Facebook ya tiene pensados algunos asuntos que quiere mandar al consejo, pero no ha querido dar más detalles.
Desde Facebook aspiran a que su tribunal supremo relaje la presión que recibe la compañía sobre qué contenido permite y cuál suprime, que es una de las polémicas más habituales y repetidas. El consejo podrá recomendar cambios en las políticas comunitarias de la compañía. Hace unos días Zuckerberg decidió no permitir la negación del Holocausto en Facebook, en referencia estrictamente al exterminio nazi durante la Segunda Guerra Mundial. Con otros genocidios hay aún pista libre en la red social. Algunas opiniones del nuevo consejo pueden cambiar eso.
De momento, solo usuarios afectados y la misma compañía podrán referir casos al consejo asesor de contenido, pero dentro de unos meses usuarios anónimos que crean que un contenido no debe estar en Facebook también podrán someterlo al criterio del organismo. Durante la conferencia de prensa, Harris ha destacado varias veces que ninguna otra empresa privada ha creado nada parecido para moderar su contenido, con el añadido de que sea vinculante.
Thorning-Schmidt se ha referido también al organismo paralelo creado en Twitter y llamado “el tribunal supremo real de Facebook”, donde un grupo de activistas critica muchas de las decisiones de moderación de la red social: “Queremos debate alrededor de la moderación de contenido y no esperamos que todos estén de acuerdo con nosotros”, ha dicho. La copresidenta ha insistido repetidamente en que la transparencia será uno de sus dogmas. Otro de los copresidentes, Jamal Greene, catedrático de la Universidad de Columbia, ha destacado que serán un “órgano deliberativo” y, como tal, pretenden escuchar y pedir la opinión de organizaciones o personas directamente afectadas o con buen conocimiento de los asuntos que afronten. La aspiración de ser el primer organismo global de moderación del discurso online es ostensible.
El consejo se dividirá en comités para afrontar los distintos casos. En esos grupos siempre habrá alguien de la región afectada. La traducción del contenido en disputa será una de las principales tareas. Las actividades empezarán en 18 lenguas de todo el mundo. Los miembros del consejo, formado por 10 mujeres y 10 hombres, ni son empleados de Facebook ni pueden ser despedidos por Mark Zuckerberg. Entre sus personalidades figuran la Nobel de la Paz en 2011, la yemení Tawakul Kerman o el director del diario The Guardian durante dos décadas, Alan Rusbridger. La única hispanohablante es la abogada colombiana Catalina Botero-Marino, decana de la Facultad de Derecho de la Universidad de Los Andes y relatora entre 2008 y 2014 para la libertad de expresión en la Organización de Estados Americanos.
Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.