Cómo enderezar la economía de las plataformas

Un impuesto a la publicidad digital es una de las pocas formas de cambiar un modelo de negocio muy destructivo

Tomás Ondarra

Meta (Facebook), Alphabet (Google), Microsoft, Twitter y algunas otras compañías tecnológicas han llegado a dominar lo que vemos y oímos en internet, forjando las percepciones que tienen del mundo cientos de millones de personas. En su intención de obtener ingresos publicitarios, sus algoritmos están programados para mostrarnos contenido que llame nuestra atención —incluidos vídeos extremistas, desinformación y material destinado a estimular la envidia, la inseguridad y la ira—. Con el rápido desarrollo de “grandes modelos de lenguaje” como ...

Suscríbete para seguir leyendo

Lee sin límites

Meta (Facebook), Alphabet (Google), Microsoft, Twitter y algunas otras compañías tecnológicas han llegado a dominar lo que vemos y oímos en internet, forjando las percepciones que tienen del mundo cientos de millones de personas. En su intención de obtener ingresos publicitarios, sus algoritmos están programados para mostrarnos contenido que llame nuestra atención —incluidos vídeos extremistas, desinformación y material destinado a estimular la envidia, la inseguridad y la ira—. Con el rápido desarrollo de “grandes modelos de lenguaje” como ChatGPT y Bard, el poder que ejercen las grandes tecnológicas en las mentes impresionables no hará más que fortalecerse, con consecuencias potencialmente atemorizantes.

Sin embargo, hay otros desenlaces posibles. Las empresas podrían desplegar la última ola de inteligencia artificial de manera mucho más responsable, y dos casos judiciales actuales sirven como advertencia para quienes persiguen modelos de negocios socialmente destructivos. Pero también necesitamos intervenciones de los poderes públicos para dividir a las compañías tecnológicas más grandes y gravar la publicidad digital. Estos mecanismos políticos pueden ayudar a modificar el modelo de negocios pernicioso de las grandes tecnológicas, impidiendo así que las plataformas les inflijan tanto daño emocional a sus usuarios —especialmente a los jóvenes vulnerables—.

Los casos judiciales incluyen a Gonzales versus Google, que hoy tiene en sus manos la Corte Suprema de Estados Unidos. Lo que está en discusión es la insistencia de la industria tecnológica en que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 exima a las plataformas de cualquier responsabilidad por el contenido de terceros que albergan. Si las plataformas actúan más como medios periodísticos que como simples repositorios digitales cuando recomiendan vídeos, tuits o publicaciones, deberían cumplir con las mismas normas que los medios establecidos que, según las leyes de difamación existentes, no tienen permitido publicar lo que saben que no es verdad.

En consecuencia, en una demanda legal por 1.600 millones de dólares presentada contra Fox News, Dominion Voting Systems ha difundido una amplia evidencia de que los principales presentadores y ejecutivos de Fox eran absolutamente conscientes de que las acusaciones de fraude electoral del expresidente Donald Trump eran completamente falsas (y de que se lo habían comunicado entre sí). Dominion, por lo tanto, persigue una fuerte demanda por daños si logra demostrar que Fox difundió mentiras, a sabiendas, sobre las máquinas de votación de Dominion en la elección de 2020. ¿Acaso las plataformas online cuyos algoritmos diseminaron las mismas mentiras no deberían cumplir con el mismo estándar? Abordar este tipo de interrogantes se ha vuelto cada vez más urgente ahora que programas como ChatGPT están a punto de darle nueva forma a internet. Estos recomendadores algorítmicos sofisticados podrían estar entrenados para no promover contenido extremo o mentiras deliberadas, y para no fomentar emociones extremas. Si un algoritmo explota o manipula a niños, la responsabilidad de ese daño debería recaer en los seres humanos a cargo. Después de todo, la inteligencia artificial (IA) en este nivel no opera de manera autónoma de cualquier toma de decisiones humana. Sostener lo contrario es otorgarles a sus creadores inmunidad legal.

Las empresas tecnológicas ya no deberían poder excusarse de su propia desatención o negligencia con el argumento de que “hay demasiados datos” que deben monitorear. Esa riqueza de datos es la fuente de sus ingresos, y la mera abundancia de contenido en sus plataformas es lo que hace que su IA sea tan potente. Si bien deberían gozar de un grado razonable de protección contra cualquier responsabilidad por lo que alguien publique en su sitio, esto solamente debería aplicarse a contenido pasivo que las plataformas, de ninguna manera, recomiendan a otros usuarios. El contenido activo que se envía algorítmicamente a millones de personas para generar ingresos es otra cuestión. De hecho, es como la publicación tradicional, solo que mucho más poderoso.

Si un periódico publica el comentario de un terrorista, algunos lectores probablemente cancelen la suscripción. Pero, como la mayoría de los individuos no quieren abandonar sus redes sociales existentes, necesitamos una regulación gubernamental que vuelva a empoderar a los consumidores.

Primero, las plataformas más grandes deberían dividirse para crear una competencia más intensa entre los algoritmos de recomendación y sus instructores. Pero para que esto funcione en beneficio de la población, también se les debería exigir a las plataformas que permitan que la red social de un usuario pueda transferirse a una plataforma diferente. El mismo razonamiento de “interoperabilidad” nos permite mantener nuestro número de móvil cuando cambiamos de operador. Los usuarios de redes sociales y de contenido digital deberían poder prescindir de sus servicios cuando no les gusta lo que una plataforma está promoviendo.

Segundo, y aún más importante, necesitamos implementar un ajuste en el modelo de negocios prevaleciente de las grandes tecnológicas, que se basa en cosechar cantidades siderales de datos de usuarios y monetizarlos mediante ventas de publicidad digital. Este modelo de negocios explica por qué la desinformación, la indignación y la inseguridad prevalecen tanto online. La manipulación emocional maximiza el compromiso de los usuarios, permitiendo una recopilación de datos más intrusiva, así como mayores ganancias.

Un impuesto a la publicidad digital es una de las únicas maneras prácticas de cambiar este modelo de negocios extraordinariamente destructivo. Reduciría la tentación de las plataformas de maximizar el compromiso de los usuarios a través de una manipulación emocional y, junto con límites a la recopilación de datos, brindaría incentivos para desarrollar estrategias alternativas, como modelos basados en suscripciones.

Otra ventaja de un impuesto a la publicidad digital es que se le podría fijar aún más alto para el contenido que se promueve a menores de 21 años. Vender cigarrillos o alcohol a menores es un delito penal grave. Si bien no es posible prohibir que los jóvenes vean contenido que daña su salud mental, una tasa alta de tributación a los ingresos publicitarios que se generen a partir de promover este tipo de material es absolutamente apropiada. Las ganancias se podrían destinar a fortalecer los programas de salud mental, sobre todo los que están destinados a la prevención del suicidio de adolescentes. Si existe alguna duda sobre qué contenido afecta a los jóvenes, seguramente se lo podemos preguntar al algoritmo de recomendación de IA.

Sigue toda la información de Economía y Negocios en Facebook y Twitter, o en nuestra newsletter semanal

Más información

Archivado En