Ir al contenido
_
_
_
_

“Hipnocracia” o el régimen de la sociedad adormecida con dos sumos “sacerdotes”: Trump y Musk

Un encuentro internacional sobre IA advierte del uso de las tecnologías de la información sin límites para acabar con la ciudadanía crítica e informada

Trump y Musk
Raúl Limón

Multitud de investigaciones lo vienen advirtiendo: los memes no son inocuos; para los extremismos, es el lenguaje más eficaz de difusión de sus ideas. Las redes son herramientas de polarización e injerencia sofisticadas. Los bulos creados con inteligencia artificial (IA) generan una realidad falsa indistinguible y amenazan la democracia. La propia IA nace con sesgos que no son inocentes. Detrás de todo este arsenal hay una estrategia que el filósofo hongkonés Jianwei Xun define como “hipnocracia”, un concepto que Cecilia Danesi, investigadora en el Instituto de Estudios Europeos y Derechos Humanos (Universidad Pontificia de Salamanca), resume como “dictadura digital que permite modular directamente estados de conciencia” mediante la “manipulación a través de las historias que consumimos, compartimos y creemos”. La finalidad es la eliminación de una ciudadanía crítica e informada y precisa de la supresión de cualquier salvaguarda.

Jianwei Xun, autor de Hipnocracia: Trump, Musk y la nueva arquitectura de la realidad (aún no editado en español), afirma que este régimen es “el primero que opera directamente en la conciencia”: “No reprime el pensamiento, sino que induce y manipula los estados emocionales”. El objetivo es “adormecer el pensamiento crítico” utilizando la información como “humo hipnótico” a partir de “abrumar los sentidos con estímulos constantes” y conseguir que “realidad y simulación se vuelvan sinónimos”.

Para Danesi, integrante del reciente encuentro AI Action Summit celebrado en Cannes (Francia) que abordó la situación, esta fragmentación “erosiona y cambia radicalmente la manera en que los ciudadanos perciben la realidad y toman decisiones políticas, una situación que exige un análisis profundo y una regulación eficaz”. “La primera perjudicada es, sin duda, la democracia”, alerta.

El poder evoluciona más allá de la fuerza física y la persuasión lógica. Se ha vuelto gaseoso, invisible, capaz de infiltrarse en todos los aspectos de nuestras vidas
Jianwei Xun, filósofo

En estas condiciones, según escribe el pensador hongkonés, “el poder evoluciona más allá de la fuerza física y la persuasión lógica”. “Se ha vuelto gaseoso, invisible, capaz de infiltrarse en todos los aspectos de nuestras vidas (…) Estamos en un estado permanente de hipnosis donde la conciencia permanece atrapada, pero nunca completamente tranquila”, sostiene.

Como ha recordado en el foro francés Gianluca Misuraca, director científico de la iniciativa europea AI4Gov, los sumos “sacerdotes” de este nuevo régimen son el presidente de EE UU, Donald Trump, y su mano derecha, el multimillonario Elon Musk. Ambos lideran lo que Jianwei Xun identifica como “capitalismo digital”, donde “los algoritmos no son herramientas de cálculo y pronóstico, sino tecnología hipnótica de masas”. Según abunda Danesi, codirectora del máster en gobernanza ética de la IA en la UPSA, “la hipnocracia permite una injerencia más profunda y silenciosa, manipula nuestro pensamiento sin que nos demos cuenta, lo cual es más peligroso todavía porque es más difícil de advertir”.

Y para que la capacidad hipnótica de este exacerbado liberalismo digital funcione hay una premisa fundamental: la ausencia de regulación. Empresas de redes sociales, como X, propiedad de Musk, o Meta, de Mark Zuckerberg, han eliminado la moderación de contenidos. Otras plataformas de IA han comenzado a eliminar restricciones a respuestas sobre cuestiones potencialmente dañinas.

El Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) ha requerido a los científicos del Instituto de Seguridad de Inteligencia Artificial de EE UU (AISI, por sus siglas en inglés), creado por Joe Biden en 2023 para anticipar los problemas que pueda generar la IA, a que eludan el desarrollo de herramientas “para autenticar y rastrear la procedencia de los contenidos” o “etiquetar” el elaborado con los nuevos modelos de lenguaje. Trump rechaza la moderación de contenidos y reclama su supresión en aras de una supuesta libertad de expresión. Una orden ejecutiva emitida por el presidente estadounidense en enero justifica la medida: “Para mantener el liderazgo, debemos desarrollar sistemas de IA que estén libres de sesgos ideológicos o agendas sociales diseñadas”.

“Es una falacia”, replica Danesi: “Esta idea de a mayor regulación menor desarrollo o progreso es una idea falsa porque los sectores más regulados, como el farmacéutico o los bancos, son los que más ganancias tienen. El problema es cuando la regulación está mal hecha y eso sí implica una obstrucción a la innovación. La clave está en cómo regular para garantizar valores supremos como los derechos humanos o fundamentales”.

La proliferación de imágenes generadas por IA que fundamentan noticias falsas (deep fakes), la fácil viralización del contenido, independientemente de su veracidad, y las narrativas manipuladas han convertido la desinformación en una de las amenazas más graves para los sistemas democráticos
Cecilia Danesi, investigadora en el Instituto de Estudios Europeos y Derechos Humanos

Esta ausencia de control y moderación genera, según explica la investigadora, “la proliferación de imágenes generadas por IA que fundamentan noticias falsas (deep fakes), la fácil viralización del contenido, independientemente de su veracidad, y las narrativas manipuladas”. “Han convertido la desinformación en una de las amenazas más graves para los sistemas democráticos”, advierte.

Ante esta situación, y en contradicción con el liberalismo sin límites en la red defendido por Trump y plataformas tecnológicas masivas, la mayoría de los usuarios de herramientas digitales piden restricciones al contenido dañino internet, como las amenazas físicas, la difamación, la intolerancia y el odio, según una encuesta a gran escala realizada por la Universidad Técnica de Múnich (TUM) y la Universidad de Oxford en 10 países de Europa, América, África y Australia, donde se ha prohibido el acceso a redes sociales a los menores de 16 años.

De media, el 79% de los encuestados cree que las incitaciones a la violencia en internet deben eliminarse. Los más favorables (86%) son alemanes, brasileños y eslovacos mientras que, en EE UU, el apoyo a estas restricciones baja al 63%.

Solo el 14% de todos los encuestados cree que las amenazas deben mostrarse para que los usuarios puedan responder a ellas y el 17% defiende que debe permitirse el contenido ofensivo para criticar a ciertos grupos de personas o para que una opinión capte la atención (20%). El país con el mayor nivel de respaldo a esta actitud es Estados Unidos (29%) y el apoyo más bajo se registra en Brasil (9%).

A la pregunta de si prefieren redes con libertad de expresión ilimitada o libres de odio o desinformación, en todos los países, la mayoría optó por plataformas seguras frente a la violencia digital y la información engañosa.

El 79% de los encuestados cree que las incitaciones a la violencia en internet deben eliminarse. Los más favorables (86%) son alemanes, brasileños y eslovacos mientras que, en EE UU, el apoyo a estas restricciones baja al 63%
Encuesta de la Universidad Técnica de Múnich (TUM) y la Universidad de Oxford en 10 países

“La mayoría de las personas quieren plataformas que reduzcan el discurso de odio y el abuso. También en Estados Unidos, un país con un compromiso histórico con la libertad de expresión en el sentido más amplio”, comenta Yannis Theocharis, principal autor del estudio y profesor de Gobernanza Digital en la Escuela de Política y Políticas Públicas de Múnich.

No obstante, según matiza Spyros Kosmidis, coautor del trabajo y profesor de Política en la Universidad de Oxford, “Los resultados también muestran que no hay un consenso universal en relación con la libertad de expresión y la moderación. Las creencias de las personas dependen en gran medida de las normas culturales, las experiencias políticas y las tradiciones jurídicas de los distintos países. Esto hace que la regulación global sea más difícil”.

Tampoco está claro quién debe mantener la seguridad en internet frente a contenidos dañinos y los porcentajes se reparten de forma similar entre quienes atribuyen esta responsabilidad a las plataformas, a los gobiernos o a los propios usuarios.

En cualquier caso, sea quien sea el responsable, la mayoría de los usuarios (59%) considera que los contenidos ofensivos, de intolerancia u odio son inevitables y cuentan con reacciones de esta naturaleza (65% de media y 73% en Estados Unidos) cada vez que publican algo.

“Notamos una resignación generalizada. La gente tiene la impresión de que, a pesar de todas las promesas de lidiar con el contenido ofensivo, nada está mejorando. Este efecto de aclimatación es un gran problema porque está socavando gradualmente las normas sociales y normalizando el odio y la violencia”, advierte Yannis Theocharis.

Ivado, un grupo de investigación canadiense, e Iniciativa AI y Sociedad de la Universidad de Ottawa, proponen cuatro medidas para evitar la erosión del sistema de convivencia democrático: un marco regulatorio claro que incluya normas para la IA durante las elecciones, códigos de conductas en este campo para los partidos, equipos de seguimiento con planes de respuesta a amenazas y la creación de un consorcio internacional para actuar en caso de interferencia.

“Con nuestras democracias amenazadas, la interferencia impulsada por la IA requiere acciones rápidas y concretas por parte de los líderes, tanto a nivel nacional como internacional. Sin un esfuerzo global concertado para alinear las leyes, crear capacidad y desarrollar procesos para mitigar los riesgos de la IA, las democracias de todo el mundo siguen siendo vulnerables”, advierte el profesor Florian Martin-Bariteau, director de la Iniciativa IA y Sociedad de la Universidad de Ottawa.

Europa comenzó a andar ese camino normativo con la AI act, pero Danesi lamenta: “Ante la coyuntura internacional, la UE ha puesto el freno de mano por esta idea de que, si sobrerregulamos, frenamos la innovación”. “Pero no se trata de dejar de regular, sino de cómo lo hacemos, de qué valores tenemos y queremos potenciar”, insiste.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Raúl Limón
Licenciado en Ciencias de la Información por la Universidad Complutense, máster en Periodismo Digital por la Universidad Autónoma de Madrid y con formación en EEUU, es redactor de la sección de Ciencia. Colabora en televisión, ha escrito dos libros (uno de ellos Premio Lorca) y fue distinguido con el galardón a la Difusión en la Era Digital.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_