Así funciona el Centro de Apelaciones Europeo, el vigilante de los excesos de las redes sociales
El nuevo organismo independiente de la UE permite a los ciudadanos denunciar problemas con la gestión de contenidos de las plataformas
Los bulos y los comentarios abiertamente racistas o que inciten al odio son cada vez más frecuentes en las redes sociales. Los usuarios pueden reportar los contenidos que consideren problemáticos a las propias plataformas, pero estas a veces no responden o se niegan a retirarlos. También puede suceder lo contrario: que la plataforma decida eliminar artículos periodísticos que traten, por ejemplo, sobre terrorismo, o posts con desnudos que juzgue como inapropiados. Las empresas tecnológicas ya no tienen la última palabra en estos asuntos: la semana pasada se puso en marcha el ...
Los bulos y los comentarios abiertamente racistas o que inciten al odio son cada vez más frecuentes en las redes sociales. Los usuarios pueden reportar los contenidos que consideren problemáticos a las propias plataformas, pero estas a veces no responden o se niegan a retirarlos. También puede suceder lo contrario: que la plataforma decida eliminar artículos periodísticos que traten, por ejemplo, sobre terrorismo, o posts con desnudos que juzgue como inapropiados. Las empresas tecnológicas ya no tienen la última palabra en estos asuntos: la semana pasada se puso en marcha el Centro de Apelaciones Europeo, el organismo al que recurrir cuando no estamos de acuerdo con las decisiones de las redes sociales. De momento solo acepta casos relacionados con Instagram, TikTok y YouTube, pero está previsto que amplíe su espectro hasta abarcar todas las apps.
Con sede en Dublín y una plantilla de 25 trabajadores, la apertura de un centro de apelaciones venía contemplada en la Ley de Servicios Digitales (DSA, por sus siglas inglesas), en vigor desde agosto de 2023. El objetivo de la norma, que afecta a las grandes plataformas digitales que operan en territorio comunitario, es proteger a los consumidores, lo que implica combatir la desinformación y la difusión de contenidos ilegales. Si se detectan ese tipo de contenidos, las empresas tienen que retirarlos inmediatamente o corren el riesgo de recibir grandes multas (hasta el 6% de su facturación mundial, lo que para algunas compañías puede suponer decenas de miles de millones).
Las decisiones del Centro de Apelaciones no son vinculantes. El organismo se postula como el lugar en el que las grandes tecnológicas y particulares u organizaciones cívicas puedan arreglar sus diferencias antes de escalar el problema. Pero que no sean vinculantes no quiere decir que sea inofensivo. “Si las plataformas no aplican nuestras decisiones, tendrán que justificar posteriormente ante el regulador por qué. Por lo tanto, creo que incluso una decisión no aplicada tiene mucho valor”, explica a EL PAÍS Thomas Hughes, director general del recién creado organismo.
El centro acepta de momento casos en seis idiomas (inglés, francés, castellano, italiano, alemán y holandés), aunque irán ampliando progresivamente su alcance hasta abarcar todas las lenguas oficiales de la UE. El organismo se financiará a través de las tasas cobradas a las plataformas (95 euros por caso). Por el momento no ofrecen estimaciones de cuántas demandas recibirán anualmente. A medida que aumenten personal, su escrutinio sumará otras redes sociales, como Facebook, X o Threads, en las que el texto tiene más peso. Según cuentan desde el organismo, han empezado con Instagram, TikTok y YouTube porque resulta más sencillo dirimir disputas si lo que hay que examinar es una imagen o un vídeo que si es un texto.
Dónde establecer los límites
El británico es consciente de que la inmensa mayoría de usuarios no sabe de la existencia del Centro de Apelaciones. De hecho, muchos desconocen incluso que pueden reportar los contenidos problemáticos a las redes sociales, y que estas tienen que dar respuesta. O que cada plataforma tiene sus propios códigos de conducta, que establecen por iniciativa propia. ¿Tendría sentido que todas las redes se impusieran las mismas normas? “Ya lo hacen de facto”, dice Hughes. “De hecho, el mundo online es una extensión del offline, y lo que es ilegal en este también lo es en la esfera digital. El mínimo común denominador son los Derechos Humanos, que están codificados en todas las legislaciones nacionales. Sobre esta base, se añaden capas específicas para cada plataforma. Creo que cada red social debe encontrar su equilibrio entre favorecer al máximo el derecho de expresión, pero con límites”.
La clave está en dónde se ponen esos límites. “Algunas plataformas son más permisivas que otras, y eso está bien. Siempre que no se crucen ciertas líneas rojas”, apunta. La incitación a la violencia, los mensajes que difundan odio hacia algún colectivo y los bulos y desinformación configuran están fuera de lo aceptable.
El contenido sexual explícito, siempre que sea consentido, es perfectamente legal. Algunas plataformas, como X, difunden películas porno enteras; otras, como Facebook o Instagram, no dejan ni que se vea un pezón femenino (los masculinos sí). Incluso en esos casos, hay margen para la protesta. “Hay veces que se retiran posts mostrando los síntomas del cáncer de mama pese a que hasta las plataformas con políticas más restrictivas permiten que se vean pechos si es para concienciar a la población sobre esta enfermedad. El usuario que proteste contra esa decisión tendrá la razón”, señala Hughes.
Cómo funciona
Cada caso, dice el ejecutivo, tiene sus propias particularidades, por lo que debe analizarse por separado. Los usuarios que estén descontentos con una decisión relativa a un contenido pueden entrar en la web del Centro de Apelaciones y rellenar un formulario en el que expresen y argumenten su queja. Se les cobrará una “tasa simbólica” de cinco euros, que son reembolsados en caso de que el organismo les dé la razón. “Cada persona que presente una disputa elegible [esto es, que la interponga un ciudadano europeo] recibirá un resultado. El Centro de Apelaciones abordará una variedad de disputas, como acoso e intimidación, desinformación, discurso de odio e imágenes y videos alterados”, describe Hughes.
El equipo de revisores expertos en las políticas de las plataformas solicitarán a la plataforma (de momento, Instagram, TikTok o YouTube) el post en cuestión y todos los datos asociados al mismo. Con esa información, evaluarán si la decisión tomada fue coherente con sus políticas. “Dependiendo de la complejidad, el idioma, la situación, el contexto, la plataforma y el tipo de contenido, el caso se asigna a diferentes compañeros. Ellos toman una decisión. Si es un caso complejo, tenemos otros niveles de revisión que se pueden llevar a cabo. Al final, emitiremos una decisión que, quiero enfatizar, es no vinculante”, subraya Hughes, si bien añade que la empresa tendrá que reportar de ello al regulador, que tomará nota de las actuaciones.
Este proceso debe desarrollarse en 90 días desde que se presenta la queja al Centro de Apelaciones. En caso de que el usuario quede descontento con la decisión del organismo, siempre le queda acudir a los tribunales.
Los fallos del sistema
Cada red social es responsable de ordenar lo que sucede en su patio. La moderación de contenidos es una de las partes más delicadas de su trabajo. Cuanto mayor sea el éxito de una plataforma, más tráfico tendrá y más probabilidades habrá de que algunos usuarios desbarren. Las redes usan una combinación de medios automáticos y manuales para tratar de detectar los contenidos problemáticos.
“Si visualizamos este trabajo como una pirámide, en la base están los métodos de revisión automática de contenidos, que normalmente detecta muchísimos posts que violan las normas”, dice Hughes. Sin estas herramientas, sostiene, las redes sociales, algunas de las cuales acumulan centenares de millones de comentarios diarios, serían un coladero.
Siguiendo con la pirámide, después vendrían los métodos de moderación manual, “importantes en los casos más complejos o sutiles”, y a continuación el Centro de Apelaciones. Luego vendrían los tribunales y, en la cúspide, la Comisión con sus multas. “Esperamos poder contribuir a que la vida en las redes sociales sea más habitable”, indica el británico.
¿Qué se puede esperar de este nuevo organismo? Los expertos consultados se muestran cautos, y la mayoría prefiere esperar a ver cómo funciona antes de valorarlo. “Teóricamente, el Centro de Apelaciones debería aliviar el atasco de resoluciones pendientes e introduce a expertos independientes en el proceso de examen de los contenidos. Eso me parece interesante”, avanza la profesora Carmela Ríos, experta en redes sociales, periodismo móvil y desinformación. En unos meses se verá si es así.