Daniel Innerarity: “Los algoritmos son conservadores y nuestra libertad depende de que nos dejen ser imprevisibles”
El filósofo pone en marcha una nueva cátedra de Inteligencia Artificial y Democracia para diseñar “un diálogo en el que humanos y máquinas negocien escenarios aceptables” para aprovechar lo mejor de ambos mundos
Han pasado casi 20 años desde que ganara el Premio Nacional de Ensayo por La transformación de la política y, desde entonces, Daniel Innerarity se ha convertido en un analista fundamental para entender, como él mismo señala, que “la democracia no está a la altura de la complejidad del mundo”. Hace ya unos años, tras leer una biografía sobre Thomas Jefferson y su vocación por la ciencia, comenzó a preguntarse qué haría un fundador de la democracia revolucionaria como Jefferson “si en lugar de artefactos y máquinas triviales tuviera delante la inteligencia artificial y los algoritmos más automatizados”. Esa es la inquietud que llevó a este bilbaíno de 62 años a investigar sobre esa nueva complejidad derivada de la tecnología.
Ahora, Innerarity teje los mimbres de la nueva cátedra que dirige, de Inteligencia Artificial y Democracia, en el Instituto Europeo de Florencia, con el apoyo de la secretaría de Estado de Digitalización y el Instituto de Gobernanza Democrática. Una cátedra con la que el investigador de Ikerbasque pretende renovar conceptos, porque Innerarity está convencido de que los que usamos ya no sirven para enmarcar las nuevas realidades derivadas de las máquinas pensantes y, por eso, surgen fricciones que también amenazan a la democracia. “Estamos en un momento de la historia de la humanidad en el que todavía se puede negociar, disentir, reflexionar sobre estas tecnologías”, advierte en conversación desde Florencia, antes de que se hayan solidificado y tomen decisiones sobre las que la sociedad no ha podido discutir.
Pregunta. ¿Cómo percibe las polémicas cotidianas sobre la inteligencia artificial, como la del investigador de Google que cree que una de sus máquinas ya tiene conciencia?
Respuesta. Me parece un gran error la estrategia de definir la inteligencia artificial desde los humanos: si los humanos tenemos derechos, las máquinas también; si pagamos impuestos, también, si contamos chistes, también. Porque estamos hablando de dos inteligencias completamente distintas. Mi hipótesis es que no va a haber una sustitución. Y también vale para la democracia: no la vamos a abandonar en manos de máquinas, sencillamente porque hacen cosas muy bien, pero no precisamente la política. Es una actividad hecha en medio de una gran ambigüedad. Y las máquinas funcionan bien allá donde las cosas se pueden medir y computerizar, pero no funcionan bien allá donde tienes contextos, ambigüedad, incertidumbre. En vez de pensar en la emulación de los humanos por parte de las máquinas o en temer que las máquinas nos sustituyan, lo que debemos pensar es qué cosas hacemos los humanos bien y qué cosas hacen ellas bien, y diseñar ecosistemas que saquen los mejores rendimientos de ambos.
Debemos pensar qué cosas hacemos los humanos bien y qué cosas hacen bien las máquinas, y diseñar ecosistemas que saquen los mejores rendimientos de ambos
P. Su diagnóstico se aleja de la tecnofilia y la tecnofobia.
R. Hemos pasado en un año de pensar que la inteligencia artificial va a salvar a la política a, después de lo de Cambridge Analytica, pensar que se va a cargar la democracia. ¿Por qué en un periodo de tiempo tan breve hemos pasado de un gran entusiasmo excesivo a lo contrario, como con las primaveras árabes? Esa especie de ola de democratización que esperábamos internet no se ha producido. Y ahora la palabra internet la asociamos al discurso del odio, desinformación, etcétera. Cuando ante una tecnología tenemos actitudes tan dispares, eso significa que no la estamos entendiendo bien. Porque es verdad que internet horizontaliza el espacio público, acaba con la verticalidad que nos convertiría a los ciudadanos en meros espectadores o subordinados. Pero no es verdad que democratice por sí misma, sobre todo porque la tecnología no resuelve la parte política de los problemas políticos.
P. Y lanzan esta cátedra para tratar de ponerle un poco de orden a esas ideas.
R. Hay que hacer una renovación de conceptos. Y es aquí donde los filósofos tenemos un papel que desempeñar. Por ejemplo, ahora se dice mucho: ¿de quién son los datos? A mí me parece que el concepto propiedad es un concepto muy inadecuado para referirse a los datos, que más que un bien público son un bien común, algo que no se puede apropiar, sobre todo porque el nivel de recogida que yo tolero condiciona enormemente el de los demás. Y ahora lidiamos con una idea de privacidad que nunca hemos tenido y el concepto de soberanía, el concepto de poder... Hace falta una reflexión filosófica acerca de unos conceptos que se están utilizando de una manera inapropiada y que merecen una revisión. Y hay muchos centros en el mundo que lo están reflexionando desde el punto de vista ético y legal, y hay muy poca gente que lo está revisando desde el punto de vista político: ¿cuál es la política de los algoritmos, qué impacto tiene esto en la democracia...?
P. En su reciente libro La sociedad del desconocimiento habla de los algoritmos como una nueva imprenta que viene a revolucionarlo todo.
R. El punto de inflexión se produce a partir del momento en que los humanos diseñamos máquinas que tienen vida propia, que ya no son meramente instrumentales. Cuando producimos inteligencia artificial entramos en un terreno bastante desconocido. El reparto del mundo que habíamos hecho, según el cual los humanos somos sujetos de derechos y obligaciones y diseñamos una tecnología meramente pasiva, que está sometida a nuestro control, es una idea que ya no funciona. Hay una ruptura. Lo comparo con el momento en que Darwin acaba con la idea del Dios diseñador de la creación: nos obligó a pensar de una manera diferente. Yo creo que cuando se habla de controlar la tecnología se está en una actitud predarwiniana en ese sentido. Evidentemente, los algoritmos, las máquinas, los robots, la inteligencia artificial, deben tener un diseño humano, tenemos que debatir sobre eso. Pero la idea de control, como la que hemos tenido clásicamente para tecnologías triviales, me parece que es completamente inadecuada. Lo que tenemos que hacer es establecer una especie de diálogo en el que humanos y máquinas negociemos escenarios aceptables, pensando en la igualdad, el impacto sobre el medio ambiente, los valores democráticos. La idea de controlar no va a funcionar cuando hablamos de máquinas que aprenden.
El concepto propiedad es inadecuado para referirse a los datos, que son un bien común
P. Pero es muy difícil plantear esa negociación cuando no sabemos qué hay en la caja negra, no sabemos cómo funcionan las cosas dentro del algoritmo.
R. Es un problema que hoy por hoy no tiene solución fácil por varias razones. Primero, por la complejidad del asunto. Segundo, porque el algoritmo tiene una vida propia y, por tanto, también es opaco para su diseñador. Y en tercer lugar, porque la idea de auditar los algoritmos, de que haya transparencia, la entendemos, digamos, como una capacitación individual, como aquel que firma un documento. Y yo creo que tenemos que ir a sistemas públicos que nos permitan establecer una confianza con las máquinas. Esa idea de que estos artefactos son una caja negra, como si los humanos no fuéramos también cajas negras. Los algoritmos que se utilizan para decidir las políticas penitenciarias generan muchos problemas, pero a veces se da a entender como que un algoritmo tiene sesgos y los humanos no. ¿Las cabezas de los jueces no son también cajas negras?
P. Pero los humanos sabemos que tenemos esos sesgos y dejamos que intervenga la máquina porque aspiramos a que esté menos sesgada.
R. Probablemente porque somos más exigentes en relación con la objetividad de la tecnología. De la tecnología esperamos objetividad y en el momento en que nos falla aunque sea en un grado pequeño nos resulta mucho más intolerable que con un humano. El caso más claro es el de los accidentes de coches autónomos. Nos producen mucho más desasosiego que los que tenemos todos los días en las carreteras, pero con la tecnología nos incomoda muchísimo. Pero el accidente famoso del atropello en Arizona se hubiera producido exactamente igual si hubiera conducido un humano.
Detrás de procesos aparentemente automatizados hay personas interviniendo sin que lo sepamos
P. Un escenario que plantea el problema de la responsabilidad, ¿quién tiene las riendas cuando actúan las máquinas inteligentes?
R. Es completamente inadecuado pensar que nosotros controlamos a los gobernantes, si acaso hacemos una monitorización, les revalidamos el mandato... Pero no les estamos controlando en todos los momentos del proceso político. Hay muchas instituciones sobre las que no tenemos un control electoral, hay organismos independientes. Pues igual que en el mundo de las instituciones políticas, en el mundo de la tecnología deberíamos llegar a una idea de diálogo con la máquina más que de control. Cada vez conducimos coches sobre los que tenemos menos control, pero son más seguros: mi coche no me permite dormirme al volante, adelantar sin señalizar, frenar todo lo que quiera. El resultado final de la tecnología del coche es que pierdo el control absoluto, pero me ofrece a cambio una supervisión general de los procesos para que yo no me mate. Es como cuando los estados ceden soberanía en Europa. Si compartimos soberanía política, ¿por qué no compartir soberanía tecnológica?
P. Hay muchas decisiones políticas que tomar antes de dejar que las máquinas las tomen por sí solas.
R. Reivindico la reflexión filosófica sobre estos conceptos. ¿Qué tipo de sociedad queremos? La tecnología tiene el carácter de medio para un fin. La cuestión de fondo que nos debería interesar es qué valores, qué democracia queremos.
P. En el libro cita a Nick Seaver: “Si no ves a un humano en el proceso, tienes que mirar en un proceso más amplio”. Cuando interactuamos con Alexa, no vemos al humano, pero es quien recogió litio en la mina de Bolivia, está en las granjas de clics en Asia.
R. Una de las cosas más importantes para enfocar bien este asunto es pensar menos en contraposiciones. La tecnología tiene muchísima más humanidad, si me permites la provocación, de la que los éticos suelen reclamar. Frente a quienes conciben la tecnología como algo inmaterial, virtual, intangible, en el ciberespacio, en realidad es mucho más material, con un impacto medioambiental brutal. Y esa parte material muchas veces está fuera de nuestro ámbito de atención. Y tiene que haber humanos en el proceso: detrás de procesos aparentemente automatizados hay personas interviniendo sin que lo sepamos.
En esa transición laboral es posible que vayamos a tener un nuevo tipo de conflictos sociales
P. Estos procesos tecnológicos llevan a una polarización menos conocida que la polarización política, que es la polarización laboral: el mercado de trabajo se va a dividir entre empleos cualificados y bien remunerados y otros muy básicos y mal pagados.
R. Lo cual indica una paradoja: la promesa de la tecnología de liberarnos de los trabajos mecánicos no se ha cumplido. Y la otra paradoja puede ser que eso esté indicando que las máquinas no nos van a sustituir plenamente. La expectativa o el miedo de que nos sustituyan es completamente irrealista. Y eso tiene que ver con una distinción importantísima entre tarea y trabajo; las máquinas hacen tareas, pero no propiamente trabajos. Y en esa transición es posible que vayamos a tener un nuevo tipo de conflictos sociales. Con el caso de la brecha digital, lo estamos viendo ahora, la revuelta de los ancianos: gente que se está sintiendo expulsada de este espacio. Y en el fondo sabemos que vamos a ir a un mundo más digitalizado y vamos a ahorrar mucho, porque es más eficiente, con menos pérdida de tiempo. Pero en vez de pensar en términos de sustitución, tenemos que pensar qué tareas pueden y deben ser realizadas por un robot y qué aspectos de lo humano son irrealizables por un robot. No tanto si esto es bueno o malo. La llamada inteligencia artificial sirve para resolver cierto tipo de problemas políticos, pero no otros. No tengamos tanto miedo a que las máquinas se hagan cargo de todas las tareas del gobierno y, en cambio, facilitemos aquellas tareas de gobernanza que puedan hacer mejor que nosotros.
P. ¿Y qué es lo que más le preocupa en ese ámbito?
R. Lo que más me preocupa es la falta de reflexividad. Que el entorno algorítmico nos acostumbre a que determinadas cosas se decidan de un modo sobre el cual no hemos reflexionado ni discutido suficiente. Que lo demos por garantizado, que no discutamos. ¿Vamos a ir entornos algorítmicos, automatizados? Perfecto, pero que sepamos que detrás hay algún tipo de autoridad. Veamos de qué autoridad se trata, y hagamos lo que siempre hemos hecho los humanos con toda autoridad: someterla a revisión.
Si el algoritmo no contempla un escenario abierto, no permitirá la innovación y nos robará el futuro
P. Sin embargo, la inteligencia artificial se está desarrollando casi exclusivamente con el impulso de estas grandes tecnológicas. Son Facebook, Amazon, Google, etc., las que están decidiendo qué máquinas inteligentes tenemos, y con el único objetivo de maximizar beneficios.
R. Estamos en un momento de la historia de la humanidad en el que todavía se puede negociar, disentir y reflexionar sobre estas tecnologías. Es muy posible que dentro de no muchos años estas tecnologías se hayan solidificado en instituciones, en procesos, en algoritmos sobre los que sea mucho más difícil discutir. Por eso es importante este trabajo de reflexión filosófica. Hay mucha gente planteándose la regulación tecnológica, pero no vamos a regular bien una tecnología que no comprendemos porque fallan los conceptos. La reflexión tecnológica y la reflexión filosófica deben ir de la mano como soportes de cualquier actividad regulatoria.
P. Critica que hay un conservadurismo implícito en el big data, que es como preparar un plato recalentado.
R. El big data, y toda la analítica predictiva, son muy conservadores porque se basan en el supuesto de que nuestro comportamiento futuro va a estar en continuidad con nuestro comportamiento pasado. Lo cual no es completamente falso, porque los humanos somos muy automáticos y muy conservadores, y repetimos; tenemos una resistencia a cambiar. Pero en la historia de la humanidad hay momentos de ruptura, de cambio, de transformación. Y si el algoritmo no es capaz de contemplar un escenario indeterminado, abierto, no permitirá ese elemento de innovación, de novedad, que hay en la historia. Como dice Shoshana Zuboff, nos robará el futuro. Cito a otra filósofa, Hannah Arendt, que dice que los seres humanos somos animales muy repetitivos y con grandes hábitos e inercias, pero también somos capaces de hacer milagros, de dar lugar a cosas nuevas, de hacer algo insólito. No todos los días, pero sí de vez en cuando. Revoluciones, transformaciones, innovaciones, ruptura con la tradición, cuestionamientos, etcétera. Y en un momento de la historia de la humanidad tan singular, en el que somos muy conscientes de que tenemos que hacer grandes cambios por la crisis climática, la transformación digital, la igualdad... En un momento así tendríamos que disponer de una tecnología que sea capaz de anticipar el futuro de verdad, desconocido, abierto, indeterminado, democrático. O bien, tenemos que considerar que esas tecnologías tienen unas determinadas limitaciones y trazar bien cuáles son esas limitaciones, cuál es el ámbito de aplicación de unos algoritmos, de unas tecnologías básicamente conservadoras. Y dejar espacios indeterminados y abiertos para la libre dimensión humana e imprevisible me parece una cuestión democrática fundamental. Los humanos somos seres imprevisibles: buena parte de nuestra libertad se la debemos a eso y las máquinas deben reflejar bien esto.
Puedes escribir a jsalas@elpais.es, seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.