El debate por la censura en las redes sociales, un arma de doble filo
México busca regular plataformas como Twitter y Facebook para reducir su poder, pero la polarización y la coyuntura electoral empañan un debate complejo que preocupa a expertos en todo el mundo
La noche del 1 de julio de 2018, cuando salió a celebrar su triunfo en las elecciones presidenciales, Andrés Manuel López Obrador mencionó su gratitud con las “benditas redes sociales” que le habían permitido comunicarse con sus votantes. Dos años y medio después, en enero de 2021, el mandatario mexicano decía que plataformas como Twitter se habían convertido en una especie de “Santa Inquisición” contra la libertad de expresión y que no es posible que empresas privadas decidan sobre el derecho a difundir mensajes.
Entre un momento y otro, lo único que parece haberse mantenido intacto es el carácter sagrado que el presidente atribuye a las redes: de benditas a santas inquisidoras, las grandes plataformas tecnológicas se han convertido en un problema para las democracias del mundo y una preocupación para los líderes políticos, que las miran con benevolencia o con recelo según el contexto y la coyuntura electoral en la que se encuentren.
La reciente ofensiva del Gobierno mexicano contra las redes empezó a principios de enero, cuando Twitter y Facebook decidieron suspender las cuentas de Donald Trump por incitar a la violencia en el Capitolio. López Obrador calificó la medida como censura y dijo que ordenaría estudiar un plan para crear una red social nacional, con el fin de “garantizar la comunicación y la libertad de expresión”. Lo que inició como una cruzada soberana, sin embargo, fue derivando en una pulseada de la que parece imposible sustraer el horizonte de elecciones intermedias del próximo junio: a finales de enero, el presidente señaló al director de políticas públicas de Twitter por ser “simpatizante o militante muy cercano” del Partido de Acción Nacional, dijo que esperaba que hiciera “su trabajo de manera profesional” y que no promoviera “la creación de granjas de bots”. Los días siguientes, Twitter bloqueó contenido o suspendió a varios usuarios, entre ellos a tres cuentas afines al Gobierno con decenas de miles de seguidores, bajo el argumento de que infringían sus reglas de uso sobre spam. El presidente del partido oficialista, Mario Delgado, dijo que estos usuarios habían sido censurados.
“Me preocupa ese discurso de ‘mientras me favorezcan, las redes son maravillosas, pero si no lo hacen son horrorosas’. Ese discurso es muy preocupante de cara a las elecciones”, dice Rossana Reguillo, investigadora, docente y coordinadora de Signa Lab, un laboratorio de la Universidad Jesuita de Guadalajara que ha analizado la red #RedAMLOve, una red de seguidores en Twitter que amplifica el discurso de López Obrador.
Por la #RedAMLOve han pasado muchos usuarios pero también bots automatizados para darle más eco a los ataques del presidente a la prensa, que varias veces ha calificado de burguesa, malintencionada, o corrupta. “Durante enero y febrero de 2019 se convirtieron varias veces en tendencias que acapararon gran parte de la discusión online”, dice uno de los estudios sobre la red. Pero el Gobierno de López Obrador, apunta Reguillo, ha perdido influencia en redes en los últimos meses. “En el laboratorio venimos estudiando este fenómeno desde enero del 2019, y lo que hemos visto es cómo durante el 2019 y primer tercio del 2020, la llamada 4T o la #RedAMLOve ganaban en narrativa, apabullaban. Esto ha disminuido, así que pensamos que o bien fue inicialmente artificial o se acabaron financiamientos para esto”.
La preocupación por el poder cada vez mayor de las redes, sobre todo en época electoral, es un tema que desvela a expertos y activistas en todo el planeta. “Este es un problema donde el Gobierno ha perdido poder totalmente. Perdió el control y se siente indefenso y no es el único que se siente así”, dice la abogada guatemalteca Renata Ávila, especialista en tecnología y derechos humanos e integrante del equipo legal que defiende a Julian Assange y Wikileaks.
La misma preocupación que plantea el Gobierno mexicano puede escucharse actualmente en países como Alemania o Francia, asegura Ávila, y señala que esta situación nace de un problema común a todos: la negligencia y la comodidad con la que Gobiernos de cualquier orientación ideológica dejaron en manos privadas “la infraestructura digital crítica con la que se comunican con sus ciudadanos”. Por eso mismo, Ávila se entusiasmó cuando leyó que López Obrador proponía desarrollar una red social nacional en un país como México, “que tiene toda la capacidad técnica para hacer un proyecto de esta envergadura”, dice, siempre y cuando haya voluntad política e inversión.
Pero con el paso de los días, las declaraciones sobre la creación de una plataforma propia han desaparecido del discurso oficial y han dado lugar a un proyecto de regulación liderado por el senador oficialista Ricardo Monreal, que parece buscar una solución rápida a un problema complejo. “Las redes utilizan insumos públicos como el espacio radioeléctrico o la fibra óptica de Internet y debemos garantizar que se respete el derecho a que digas lo que digas no te censuren”, dijo Monreal a EL PAÍS, y aseguró que la regulación (una modificación a la Ley Federal de Telecomunicaciones y Radiodifusión) estaría lista en los próximos tres meses. Antes de las elecciones de junio de 2021. Ante la polémica generada, López Obrador aseguró que no debían regularse las redes sociales y se desmarcaba, en cierta manera, de la iniciativa de Monreal, pero no concretó el por qué de su cambio de postura.
Experimentos fallidos y problemas reales
La semana pasada, el senador Monreal explicó en entrevista que su propuesta consistía esencialmente en que sea un órgano constitucional el que decida “si un contenido o una cuenta afecta la estabilidad social o hace llamados a la ilegalidad”, y no “los dueños de las redes”. Para eso, dijo, proponían ampliar las facultades del Instituto Federal de Telecomunicaciones (IFT), responsable de controlar la radio y televisión, y anticipó que esta semana hablaría con institutos de investigación y académicos. Sin embargo, apenas cuatro días después, el legislador publicó un texto con su propuesta de regulación. Según ese proyecto, las redes sociales con más de un millón de usuarios —es decir, no solo gigantes como Facebook sino otras mucho más pequeñas—, que se definen como “redes sociales relevantes”, necesitarían autorización del IFT para prestar su servicio en México y, además, una autorización del mismo organismo para establecer “los términos y condiciones” de su servicio.
El texto de la iniciativa señala que las redes deberán asegurarse que “se evite la propagación de noticias falsas” o la “difusión de mensajes de odio”, dos expresiones cuya vaguedad ha alertado a los expertos. “Esto es algo que ya han señalado reiteradamente las distintas relatorías para la libertad de expresión: no podemos tener esos términos tan amplios, tan vagos, sin ningún tipo de claridad,” dijo a El PAÍS Vladimir Cortés, oficial del programa de derechos digitales en la organización Artículo 19. Esta ambigüedad, advierte Cortés, puede dar pie a que se eliminen “mensajes legítimos que podrían categorizarse como mensajes de odio, o críticas, o disensos, o investigaciones periodísticas que se cataloguen como noticias falsas”. Para Luis Fernando García, director de la Red en Defensa de los derechos digitales en México, este es el punto más peligroso de la iniciativa: “Es un mecanismo de censura encubierto”, escribió el lunes por la noche, poco después de que Monreal difundiera el texto de su iniciativa.
De acuerdo con defensores de la libertad de expresión que han seguido el proyecto, el legislador parece no haber considerado la profunda complejidad que implicaría este tipo de regulación. “Ningún país democrático le exige autorización a una plataforma o a una página de internet para poder difundir información en internet. Es claramente inconstitucional y violenta la libertad de expresión”, opina García.
El proyecto dado a conocer por Monreal establece también que, en caso de que una red decida cerrar una cuenta o borrar un contenido, y la misma red no resuelva el reclamo de su usuario en menos de 24 horas, el usuario puede acudir al IFT para “interponer la queja correspondiente”. Este punto clave sobre regulación de contenidos asume que todas las redes tienen un sistema de reclamos centralizado, como Facebook o Twitter, sin considerar redes como Wikipedia en las que la moderación funciona de forma más descentralizada.
“Hay un desconocimiento tanto sobre el espacio digital como la gobernanza de internet”, dice Cortés, con respecto al limitado control que pueda tener IFT sobre las redes globales. Al igual que otros expertos consultados, él no ha visto que haya un partido político que esté censurando activamente a un grupo en particular en las redes, pero sí le preocupa la falta de transparencia de las empresas al decidir cuándo cerrar una cuenta o no. “Pero seamos muy claros: la decisión de si se suspende una cuenta no debe recaer en el Estado”.
Tener claro que el Estado no es el mejor árbitro del debate en las redes sociales no resuelve el problema fundamental sobre cómo construir un debate digital más saludable que no esté plagado de desinformación, manipulaciones o discursos de odio. La regulación internacional sobre libertad de expresión es muy clara sobre qué contenidos no son debatibles, como la pornografía infantil o los discursos xenofóbicos que promueven asesinar a minorías. Pero es menos fácil definir qué es desinformación o qué es bullying, y controlarlo en millones de usuarios alrededor del mundo que publican en cada segundo.
“Los expertos en esta batalla llevamos por lo menos desde 2016 intentando describir qué es fake news, qué es desinformación, y no hemos podido” dice Cristina Tardáguila, directora adjunta de la Red Internacional de Verificación de Información (IFCN, por su sigla en inglés), la red que reúne a 80 organizaciones que verifican información alrededor del mundo. “O nos quedamos muy cortos, con una definición sencilla que deja al descubierto un montón de casos, o una definición muy larga que pone en riesgo el humor, el arte, o los chistes”.
Para resolver el dilema, los países que le dan más poder al Ejecutivo pueden terminar criminalizando a los usuarios que comparten información que consideran falsa, o contraria a los intereses del Gobierno. Es el caso de Nicaragua, donde una ley de ciberdelitos aprobada en 2020 permite penalizar —con multas o prisión— a los usuarios que publiquen información que genera “zozobra en la población”, o que ponga en riesgo “la estabilidad económica, el orden público, la salud pública o la seguridad soberana”.
Otros casos de moderación de contenidos en América Latina parecen experiencias más interesantes. El Congreso de Brasil, por ejemplo, aprobó en 2014 un Marco Civil de Internet que le da más seguridad jurídica a los usuarios y a las plataformas. “La piedra clave de ese modelo es que una persona no puede ser demandada por el contenido que publica, y la plataforma tampoco puede ser demandada si no ha recibido previamente una orden judicial para remover contenido”, explicó desde São Paulo el director de la organización InternetLab, Francisco Brito Cruz. “La plataforma sólo es responsable jurídicamente si no quitó un contenido después de una orden judicial que la ordena, después de estudiar el caso”.
Un riesgo de esta salida es que los jueces pueden terminar inundados por demandas, muchas veces más de actores políticos que de ciudadanos. La empresa digital CTRL+X, que intenta seguir el rastro de estos litigios en Brasil, ha identificado que casi tres mil de 5.242 acciones judiciales son hechas por políticos. Del total, 77% de los casos son una acusación por difamación. “En los últimos cinco años hemos alcanzado unas cifras récord de peticiones en las cortes para eliminar contenido, y sobre todo muchas peticiones del gobierno”, cuenta Britto Cruz. También existe el riesgo de que los jueces sean cooptados por un partido político, y que se vuelva a caer en el problema inicial: que sea un partido el que decida qué amerita ser censurado, y qué no.
Desde 2018, la Red Internacional de Verificación de Información sigue intentos de regulación en más de 50 países, y ha ido elaborando una guía a partir de estos casos. “Basado en esta guía, que ya lleva tres años”, cuenta Tardáguila, “te puedo garantizar que no hay ninguna experiencia que venga de leyes que haya derivado en éxito para disminuir la desinformación”.
La responsabilidad de las redes
Después de las elecciones presidenciales del 2016 en Estados Unidos, en las que las campañas de desinformación en redes sociales tuvieron un rol central, plataformas como Twitter o Facebook han intentado moderar su contenido con algoritmos que permitan identificar qué contenido puede ser ofensivo o violento. Pero el uso de la inteligencia artificial también ha derivado en conflictos y casos de supresión de contenidos denunciados por los usuarios. En octubre del 2020, por ejemplo, Facebook borró una campaña contra el cáncer de mama en Brasil porque las fotografías mostraban pezones femeninos y el algoritmo identificó que violaban “la norma comunitaria de Facebook sobre desnudos y actividad sexual de adultos” (después de un proceso de apelación, el contenido fue restaurado).
Una de las estrategias desarrolladas por Facebook para responder a las críticas fue crear un Consejo Asesor de Contenido: una especie de Corte Suprema, independiente de la empresa, en la que sus magistrados fallan en casos emblemáticos en los que se haya quitado contenido de la plataforma. El mes pasado publicaron su decisión en los primeros cinco casos (un post con discurso de odio contra la población Azerbaijan, otro con posible desinformación sobre curas contra el coronavirus, o el caso de cáncer de mama en Brasil).
“Se trataba de casos en los cuales era muy importante revisar si Facebook estaba aplicando adecuadamente el derecho internacional de los derechos humanos’', dijo a EL PAÍS una de las integrantes del Consejo Asesor, la abogada colombiana Catalina Botero, especialista en libertad de expresión. “Nos permitían identificar si la forma en la que Facebook estaba haciendo la moderación de contenidos era adecuada, o si ameritaba un cambio no solo en la decisión concreta, sino adicionalmente en la política”.
Para cada caso el Consejo Asesor decide si fue adecuado borrar o no el post, y Facebook está obligado a mantenerlo borrado o restablecerlo. Pero la empresa no está obligada a cambiar sus políticas de uso de acuerdo a las recomendaciones que da el Consejo, y ese control opaco que sigue teniendo la red social sobre las reglas del juego para mantener un post o no (o sobre cómo funciona su algoritmo que privilegia una información sobre otra) ha hecho pensar a muchos que las redes deberían ser reguladas como medios que toman decisiones editoriales.
“Creo que perdemos el potencial democratizador de las redes sociales’', dice Botero sobre esta posibilidad, la de regular a las redes como medios. “Cuando una plataforma le ha brindado a 3.000 millones de personas la posibilidad de interconectarse, de contar sus historias, pues claro que existen riesgos, enormes. Pero si nosotros le pedimos a esa plataforma que cumpla con la labor editorial de un medio de comunicación respecto a lo que los 3.000 millones de usuarios dicen, desaparece la plataforma. Es literalmente imposible cumplir con esa función editorial”.
Otra estrategia de Facebook arrancó en 2017, cuando comenzó a tercerizar la verificación de su información al contratar algunos medios no-partidistas para revisar información viral en su plataforma. “Nosotros no podemos generar una consecuencia directa contra la desinformación, pero indirectamente sí podemos, porque Facebook toma como señal lo que nosotros publicamos para que ellos determinen qué decisión tomar frente a un post”, explica Pablo Medina, director de ColombiaCheck, uno de los 10 medios independientes que tienen contratos con Facebook en América Latina para verificar información.
De todos modos, al igual que ocurre con el Consejo Asesor, Facebook no está obligado a tomar las recomendaciones de estos medios. “Sí creo que las plataformas digitales deberían tener más responsabilidad legal sobre sus contenidos”, sostiene Medina.
Soberanía digital o cómo vivir sin Silicon Valley
Más que una mayor injerencia del Estado, Medina y otros expertos consultados por EL PAÍS creen fundamental crear “un mecanismo público-privado en el que haya representantes del Estado, de la sociedad civil y de las plataformas, y que sea ahí donde se delibere sobre cómo implementar las políticas sobre moderación de contenido”. Un organismo independiente en el que las reglas de juego no las determine ni Facebook ni el Gobierno de turno.
Renata Ávila, que además de su trabajo de investigación y asesoramiento codirige de la Alianza por Algoritmos Inclusivos, coincide en que un mecanismo de regulación del Estado no tiene sentido en la situación actual, y que hace falta mayor participación ciudadana, académica y técnica para este debate. “Cualquier regulación que puedan estar pensando los congresistas no es nada más que una aspirina para matar un cáncer”, dice. Pero la propuesta que inicialmente propuso Andrés Manuel López Obrador de crear una red social independiente le parece más interesante para volver a un debate más grande sobre soberanía digital y el fin del monopolio de Silicon Valley.
“Cuando Lula estaba a cargo de la presidencia, los poderosos eran los grupos de software libre en la región, el malo de la película en aquel tiempo era Microsoft”, explica. “Ese fue un tiempo interesante porque los países de Latinoamérica estaban muy centrados en hacer sus propias infraestructuras digitales”.
Estos proyectos nacionales, que impulsaban una incipiente soberanía digital, no siguieron a nivel regional, y el poder de las redes sociales privadas creció libremente en la región durante la última décadas. Hasta en Cuba “empezaron a usar las redes sociales de Estados Unidos’', dice. “Fue un descuido total de los Gobiernos de la región, teniendo las capacidades, y teniendo la gente, no haber desarrollado plataformas regionales propias”.
Ávila no comulga con redes sociales nuevas controladas por el Estado, pero ve en esta crisis sobre censura y contenidos una oportunidad. “Si existe una apropiación ciudadana real, técnica, y no se vuelve un vehículo político, sino que se vuelve un proyecto común del que los mexicanos estén orgullosos, creo que allí sí se puede hacer algo muy interesante”.
Un experimento descentralizado y con control ciudadano en el que, por ahora, el Gobierno mexicano no parece estar interesado.
(Darinka Rodríguez contribuyó a la reportería de este artículo)
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.