Mark Coeckelbergh: “Democracias débiles, capitalismo e inteligencia artificial son una combinación peligrosa”
El filósofo apunta que las instituciones tienen que recurrir a los expertos para regular la tecnología, pero sin olvidar a los ciudadanos
Antes de esta entrevista, Mark Coeckelbergh (Lovaina, 48 años) ha centrado la atención de un público poco acostumbrado a debates filosóficos: alumnos de ingeniería han llenado una sala para escuchar a este experto en ética de la tecnología, invitado por el Instituto de Robótica e Informática Industrial de la Universitat Politècnica de Catalunya. Coeckelberg, autor prolífico —dos de sus libros están editados en español por Cátedra, Ética de la inteligencia artificial (2021) y ...
Antes de esta entrevista, Mark Coeckelbergh (Lovaina, 48 años) ha centrado la atención de un público poco acostumbrado a debates filosóficos: alumnos de ingeniería han llenado una sala para escuchar a este experto en ética de la tecnología, invitado por el Instituto de Robótica e Informática Industrial de la Universitat Politècnica de Catalunya. Coeckelberg, autor prolífico —dos de sus libros están editados en español por Cátedra, Ética de la inteligencia artificial (2021) y Filosofía política de la inteligencia artificial (2023)— sabe lo importante que es construir puentes entre los que desarrollan tecnologías y los que tienen que pensar cómo usarlas.
Pregunta. ¿Cree que estudiantes, ingenieros y las grandes tecnológicas tienen en cuenta los aspectos éticos de la inteligencia artificial (IA)?
Respuesta. La gente sí es consciente de que esta tecnología afectará a nuestras vidas, porque ya está en todas partes, pero a la vez estamos confundidos porque los cambios son muy rápidos y complejos. Por eso creo que es importante que desde la educación y la investigación se haga lo posible para buscar un camino interdisciplinar, entre la filosofía, la programación y la robótica, para tratar de resolver estos problemas éticos.
P. ¿Y con la política?
R. Sí, tenemos que crear más vínculos entre los expertos y los políticos, pero que no solo cuente la opinión técnica. Hay que ver cómo podemos organizar nuestra democracia para tener la visión de los expertos y, aun así, decidir nosotros. Las empresas tecnológicas tienen cada vez más poder, y esto es un problema, porque la soberanía de las naciones y ciudades va menguando. ¿Cuánto de nuestro futuro tecnológico hay que dejarlo en manos de iniciativas privadas, y cuánto tiene que ser público y controlado por las democracias?
P. ¿La inteligencia artificial es una amenaza para la democracia, o es que las democracias ya están debilitadas?
R. La democracia ya es vulnerable, porque realmente no tenemos democracias completas. Es como cuando le preguntaron a Gandhi qué pensaba de la civilización occidental y dijo que era una buena idea. Lo mismo con la democracia: es una buena idea, pero no la tenemos completa. Para mí no es suficiente con votar y que salgan mayorías, es demasiado vulnerable para el populismo, no es suficientemente participativa y no toma en serio a los ciudadanos. Falta educación y conocimiento para lograr una democracia real, y es lo mismo que falta en la tecnología. La gente tiene que entender que la tecnología también es política, y que hay que preguntarse si es bueno para la democracia que infraestructuras de la comunicación como Twitter estén en manos privadas.
Usamos la tecnología de forma acrítica, y mientras unos pocos tienen beneficios, al resto nos ordeñan por los datos
P. ¿En qué sentido amenaza la inteligencia artificial a la democracia?
R. Lidiamos con la tecnología sin pensar, la usamos acríticamente, pero ella nos da forma y nos usa como instrumentos para el poder, el control y la explotación de nuestros datos. Y mientras unos pocos tienen beneficios, al resto nos ordeñan por los datos. Esto afecta a las democracias, ya que al no ser muy resilientes, las tendencias políticas aún se polarizan más con la tecnología. Esta combinación de democracias débiles, capitalismo e inteligencia artificial es peligrosa. Pero sí que creo que se puede usar de una forma más constructiva, para mejorar la vida de todos y no solo de unos pocos.
P. Unos ven la inteligencia artificial para trabajar menos y tener más libertad, y otros como una amenaza a sus trabajos.
R. Creo que la IA ahora mismo empodera a quien ya tiene una posición privilegiada o una buena educación: por ejemplo, pueden usarla para empezar una compañía. Pero habrá cambios en el empleo, habrá cierta transformación de la economía, y hay que prepararse. Por otro lado, el argumento de que la tecnología hace las cosas más fáciles... Hasta ahora, ha dado lugar a trabajos precarios, como los conductores de Uber, y a trabajos que pueden ser buenos, pero son estresantes. Por ejemplo, todos somos esclavos del correo electrónico, y llegó como una solución.
P. Así que el problema no es tanto la tecnología como el sistema.
R. Es la combinación de las dos cosas, pero efectivamente, estas nuevas posibilidades tecnológicas nos fuerzan a preguntarnos más que nunca sobre el sistema. Hoy en día es en el ámbito de la tecnología donde se juega el conflicto político.
P. ¿Qué impacto tiene en los medios de comunicación?
R. En este entorno, el problema no es que la gente se crea una mentira, sino que no sepa qué es mentira y qué es verdad. El periodismo de calidad es muy importante para dar contexto y para intentar entender el mundo. Creo que puede ayudar a que la gente tenga más conocimiento, incluso si se usa la IA para algunas tareas del oficio. Filósofos, periodistas, educadores, tenemos que dar las herramientas para interpretar el mundo, porque cuando falta el conocimiento y reina la confusión, es más fácil que venga un líder con una solución simple y populista, como ya ha ocurrido en algunos países de Europa.
P. ¿La tecnología puede hacer que los gobiernos se vuelvan más tecnócratas?
R. Los políticos están confundidos, sienten la presión de los lobbies y crean marcos regulatorios, pero el ciudadano en ningún momento ha tenido nada que decir. Los Estados se vuelven cada vez más burocráticos, porque dan el poder a quien controla la inteligencia artificial. Entonces, ¿quién es el responsable? Este tipo de sistemas, como dijo Hannah Arendt, lleva a los horrores. Debemos luchar contra ello, con regulaciones que permitan ver por qué los algoritmos toman las decisiones que toman, y que permitan saber quién es el responsable.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.