¿Quién pone orden en el descontrol de la redes sociales?
Las grandes empresas tecnológicas pueden restringir hoy el discurso público mejor que cualquier Gobierno en la historia
Desde el nacimiento y progresivo desarrollo de internet como plataforma abierta, conectada e interoperable para la libre circulación de todo tipo de contenidos y servicios, hemos asistido a debates importantes acerca de su regulación y la necesidad de eliminar determinados cuellos de botella que impedirían, precisamente, que las características de la red de redes pudieran desplegarse por completo. Desde los propios terminales, pasando por sistemas operativos, navegadores y ahora los servicios de intermediación (motores de búsqueda, redes sociales o plataformas para compartir vídeos), diversas ...
Regístrate gratis para seguir leyendo
Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
Desde el nacimiento y progresivo desarrollo de internet como plataforma abierta, conectada e interoperable para la libre circulación de todo tipo de contenidos y servicios, hemos asistido a debates importantes acerca de su regulación y la necesidad de eliminar determinados cuellos de botella que impedirían, precisamente, que las características de la red de redes pudieran desplegarse por completo. Desde los propios terminales, pasando por sistemas operativos, navegadores y ahora los servicios de intermediación (motores de búsqueda, redes sociales o plataformas para compartir vídeos), diversas corporaciones privadas —muchas de ellas de gran envergadura y alcance multinacional— han venido incidiendo de manera muy directa en la forma en la que se desarrollan las interacciones en la Red.
Plataformas como Twitter, Facebook, YouTube o Instagram centran hoy debates acerca de su poder cuando alojan a jefes de Estado como Donald Trump —a quien en enero, tras el asalto al Capitolio, Twitter y Facebook suspendieron sus cuentas—. También se discute sobre el papel de estas grandes plataformas como amplificadoras o reductoras de determinados discursos durante procesos electorales y sobre la relevancia de dichos espacios en momentos de crisis sanitaria mundial en los que la difusión de falsedades puede acabar incidiendo en el modo y en el ritmo con los que venceremos a la pandemia.
Más de 20 años después de la adopción en Europa y Estados Unidos de las normas de cabecera del internet que ha llegado a nuestros días (respectivamente, la directiva sobre comercio electrónico de la UE y la reforma de la ley estadounidense de telecomunicaciones, a través de la Sección 230 de la Ley de Decencia en las Comunicaciones) existe, sobre todo en el Viejo Continente, una amplia discusión e importantes propuestas acerca de la introducción de obligaciones y modalidades de intervención de los Estados en las actividades de las plataformas.
Las plataformas desempeñan un papel innegable como facilitadoras del ejercicio de la libertad de expresión. Gracias a ellas, personas sin acceso a los medios de comunicación tal y como los hemos entendido hasta ahora disponen de canales de difusión de contenidos e ideas de forma efectiva y con un alcance potencialmente ilimitado. Genera también pocas dudas que periodistas y medios se benefician, asimismo, de la visibilidad y la accesibilidad adicional que proporciona la distribución de sus contenidos. Además, es indudable que existe también una creciente presión por parte de gobiernos, legisladores, sociedad civil e incluso usuarios para que las plataformas actúen como filtros protectores frente a contenidos nocivos. Concretamente, existe en estos momentos, y especialmente en Europa, un discurso político y social que apuesta por la asunción y ejercicio de un mayor grado de responsabilidad (no necesaria ni únicamente en el sentido jurídico del término) por parte de las plataformas en la vigilancia y eliminación de contenidos tanto ilegales como dañinos u objetables (desinformación, promoción de conductas incívicas o insalubres, contenidos ofensivos para ciertas sensibilidades, etcétera).
En un contexto de esta naturaleza, sin embargo, las principales plataformas pueden restringir nuestro discurso de manera más efectiva que cualquier Gobierno en la historia. No hay que olvidar que estas restricciones se articularán, mayoritariamente, a partir de la utilización de sistemas automatizados que pueden tomar decisiones casi inmediatas con relación a contenidos que requieren en muchos casos de un análisis ponderado y contextualizado (¿justifica una determinada fotografía la violencia o por el contrario la denuncia?, ¿con qué intención —irónica, insultante, ilustrativa…— se ha escrito un determinado vituperio?, ¿tiene voluntad peyorativa la referencia a un determinado grupo étnico?). Exactamente el mismo tipo de decisiones que requerirían para su adopción a cualquier tribunal meses o incluso años.
Esta situación genera paradojas y tensiones de difícil solución.
Contenidos de baja calidad o poco deseables
Existe un sentimiento más o menos amplio a favor de la necesidad de impedir o limitar que grandes corporaciones transnacionales se enriquezcan alojando y ofreciendo, en muchos casos, contenidos de baja calidad o poco deseables en el marco de nuestros sistemas políticos y sociales. Un requerimiento que, por cierto, se basa en un grado de exigencia ética que no se impone necesariamente y en los mismos términos a otros actores económicos, particularmente en el ámbito de la comunicación. Por el otro, sin embargo, es necesario ser precavido a la hora de delegar precisamente en estos actores la capacidad de regular o discernir lo bueno de lo malo, o incluso de determinar cuándo un contenido es ilegal y cuándo debe prevalecer la libertad de expresión.
Una aproximación adecuada a estos problemas requiere seguramente distinguir, por un lado, la dinámica de las plataformas respecto de, por el otro, los poderes de los Estados a la hora de establecer y aplicar límites a la libertad de expresión.
Es importante que sean las autoridades estatales (y particularmente jueces y tribunales) quienes determinen en cada supuesto cuándo un contenido es ilegal y requieran a las plataformas, a partir de este discernimiento, la adopción de las medidas correspondientes.
No debería, en cambio, corresponder a las autoridades (incluso en el caso del poder judicial) decidir cuándo una plataforma puede o debe adoptar medidas con relación a otros tipos de contenidos que puedan tener un mero carácter nocivo.
Las plataformas se sujetan, como no podía ser de otra forma, al derecho. Pero también son foros gobernados por sus propias reglas internas de admisión y de limitación de determinado tipo de expresiones o conductas, como sucede en muchos otros espacios gestionados privadamente. ¿Significa ello que las redes sociales pueden eliminar contenidos o expulsar usuarios de forma totalmente arbitraria? Por supuesto que no. Es necesario que se adopten normas adecuadas y proporcionales que garanticen la transparencia de la mencionada gestión, la adecuada disponibilidad de mecanismos de queja y recurso, así como, en general, un tratamiento equilibrado, proporcional y motivado de los contenidos publicados por parte de los usuarios. Este es el camino que parece estar tomando, con matices, la Unión Europea en el marco de su reciente propuesta de regulación de los servicios y mercados digitales.
Y una reflexión final.
Las plataformas reflejan a menudo, a través de los contenidos que circulan en las mismas, problemas sociales y políticos de gran calado. Problemas que se derivan de carencias históricas y culturales importantes, las cuales requieren del despliegue de políticas públicas complejas y ambiciosas. No caigamos en la trampa de querer arreglar el mundo a base de regular herramientas y entornos que a menudo no son sino su mero reflejo.
Joan Barata Mir es investigador del programa de legislación de plataformas del Centro de Políticas Cibernéticas de la Universidad de Stanford (EE UU) y miembro de la Plataforma por la Libertad de Información (PDLI).