Ir al contenido
_
_
_
_

El dilema de la inteligencia artificial: ¿Quién decide cuando aparentemente nadie decide?

Hay tres abordajes posibles a esta pregunta, escribe el filósofo Daniel Innerarity en un libro del que ‘Ideas adelanta un extracto. Detener la tecnología por un tiempo, someterla a códigos éticos o examinarla mediante la crítica política

Una imagen ilustrativa generada por inteligencia artificial muestra varios lenguajes de programación y un diagrama neuronal. En Colonia, Alemania, en mayo de 2024.
Una imagen ilustrativa generada por inteligencia artificial muestra varios lenguajes de programación y un diagrama neuronal. En Colonia, Alemania, en mayo de 2024.Oliver Berg (Picture Alliance/Getty Images)
Daniel Innerarity

La organización política de las sociedades ha tenido siempre una pretensión de automaticidad. En cuanto se supera la simpleza de la familia o la tribu, las organizaciones humanas necesitan datos y procedimientos que permitan gestionar la incipiente complejidad. Desde esta perspectiva, la racionalidad algorítmica, más que representar una ruptura absoluta con el pasado, puede ser analizada de acuerdo con continuidades históricas, es decir, siempre que ha habido que establecer un orden en un entorno de complejidad y heterogeneidad. Como la burocracia para el estado moderno, la inteligencia artificial parece llamada a ser la lógica de legitimación de las organizaciones y los gobiernos en las sociedades digitales. Los tres elementos que modificarán la política de este siglo son los sistemas cada vez mas inteligentes, una tecnología mas integrada y una sociedad mas cuantificada. Si la política a lo largo del siglo XX giró en torno al debate acerca de cómo equilibrar estado y mercado (cuánto poder debía conferírsele al Estado y cuánta libertad debería dejarse en manos del mercado), la gran cuestión hoy es decidir si nuestras vidas deben estar regidas por procedimientos algorítmicos y en qué medida, cómo articular los beneficios de la robotización, automatización y digitalización con aquellos principios de autogobierno que constituyen el núcleo normativo de la organización democrática de las sociedades. El modo como configuremos la gobernanza de estas tecnologías va a ser decisivo para el futuro de la democracia; puede implicar su destrucción o su fortalecimiento.

Los humanos siempre hemos aspirado a que algún procedimiento mecánico nos haga menos dependientes de la voluntad de los otros. La racionalidad algorítmica parece prometerlo, pero ¿es realmente así? El problema fundamental de la inteligencia artificial es la creciente externalización de decisiones humanas en ella. La automatización generalizada plantea el problema de qué lugar le corresponde a la decisión humana, si se trata simplemente de un suplemento, de una modificación o un remplazamiento. La respuesta a todas estas cuestiones permitiría convertir a la informática en una disciplina política. En definitiva, ¿quién decide cuando aparentemente nadie decide?

Hay tres respuestas posibles a este conjunto de problemas planteados por el creciente protagonismo de la razón algorítmica debido a la delegación de decisiones en la inteligencia artificial: la moratoria, la ética y la crítica política, es decir, la propuesta de que la tecnología sea detenida al menos por un tiempo, de someterla a códigos éticos o examinarla de acuerdo con una perspectiva de crítica política.

La idea de moratoria evidencia una falta de comprensión acerca de la naturaleza de la tecnología, de su articulación con los humanos y, concretamente, de las potencialidades de la inteligencia artificial en relación con la inteligencia humana, a mi juicio menos amenazada de lo que suponen quienes temen al supremacismo digital. Por supuesto que nos encontramos con un desfase cada vez más inquietante entre la rapidez de la tecnología y la lentitud de su regulación. Los debates políticos o la legislación son sobre todo reactivos. Una moratoria tendría la ventaja de que el marco regulatorio podría adoptarse de forma proactiva antes de que la investigación siga avanzando. Pero las cosas no funcionan así, menos aún con este tipo de tecnologías tan sofisticadas. La petición de moratoria describe un mundo ficticio porque, por un lado, considera posible la victoria de la inteligencia artificial sobre la humana, y por otro sugiere que la inteligencia artificial solo necesitaría algunas actualizaciones técnicas durante seis meses de congelación de su desarrollo. ¿En qué quedamos? ¿Cómo es que la amenaza sea tan grave y que, al mismo tiempo, basten seis meses de moratoria para neutralizarla?

Otro recurso para tratar de condicionar el desarrollo tecnológico es la apelación a los criterios éticos. En este caso no se trataría de frenar el desarrollo sino de orientarlo en un determinado sentido. Así lo ha pretendido la multitud de instituciones que han lanzado sus exhortaciones en los últimos años en un número creciente que es inversamente proporcional a la novedad de las propuestas. Siendo muy necesaria la referencia al horizonte normativo, esta apelación no agota todas las posibilidades de la crítica. Si la moratoria frenaba demasiado, podríamos decir que la ética frena demasiado poco y puede terminar convirtiéndose en un inofensivo acompañamiento del desarrollo tecnológico irreflexivo. No podemos esperar la solución al problema de la articulación entre inteligencia artificial y democracia de la actual proliferación de códigos éticos porque, aunque persigan proteger los valores esenciales de la democracia, no desarrollan conceptualmente el problema de hasta qué punto la automatización generalizada modifica la condición democrática. Antes que normativo, el desafío al que nos enfrentamos es conceptual. Solo una lectura política de la constelación digital nos permitirá examinar la calidad democrática de la digitalización.

La teoría crítica es algo muy distinto de la ética de la inteligencia artificial; la crítica comienza precisamente allí donde terminan los llamamientos a desarrollar una inteligencia artificial responsable y humanista. La crítica no es una exhortación a hacerlo bien, sino una indagación de las condiciones estructurales que posibilitan o impiden hacerlo bien. ¿Qué aporta la perspectiva de la crítica filosófica sobre el tema de la racionalidad algorítmica? Básicamente una interrogación casi nunca plenamente satisfecha sobre los supuestos que tendemos a dar por suficientemente acreditados.

La ideología de la razón algorítmica no es tanto ocultación deliberada como irreflexividad. Su naturalización consiste en dejar de preguntarnos acerca de a qué clase de racionalidad responde la racionalidad algorítmica, pensar que no hay racionalidad alternativa o, al menos, una diversidad de posibilidades acerca de qué hacer con esa racionalidad. Lo que en este libro me planteo es qué quiere decir autogobierno democrático y qué sentido tiene la libre decisión política en esta nueva constelación. Mi objetivo es desarrollar una teoría de la decisión democrática en un entorno mediado por la inteligencia artificial, elaborar una teoría crítica de la razón automática y algorítmica. Necesitamos una filosofía política de la inteligencia artificial, una aproximación que no puede ser cubierta ni por la reflexión tecnológica ni por los códigos éticos.

Hay que pensar una idea de control que, al mismo tiempo, cumpla las expectativas de gobernabilidad del mundo digital, que no podemos dejar fuera de cualquier comprensión, escala y orientación humanas, pero tampoco deberíamos ejercer sobre él una forma de sujeción que arruinara su performatividad. Todavía no hemos encontrado el equilibro adecuado entre control humano y beneficios de la automatización, pero esta dificultad nos habla también del carácter abierto, explorador e inventivo de la historia humana, no tanto de un fracaso definitivo. Reconforta considerar que en otros momentos de la historia los seres humanos tampoco hemos acertado a la primera cuando se trataba de acotar los riesgos de una tecnología desconocida. Recordemos aquella Red Flag Act proclamada en Inglaterra en 1865 con el fin de evitar accidentes ante el aumento de los coches, a los que imponía una velocidad máxima de cuatro millas por hora en el campo y dos en pueblos y ciudades. Además, cada uno de ellos debía estar precedido por una persona a pie con una bandera roja para advertir a la población. Hicieron falta unos cuantos años para que fuéramos conscientes de la naturaleza de los riesgos y de las ventajas de los desplazamientos rápidos y, sobre todo, de que el control humano de los vehículos no dependía de la limitación de la velocidad a los parámetros del caminar. Es posible que lo que hagamos ahora con la inteligencia artificial nos parezca en el futuro excesivo o insuficiente, pero lo que nos distingue como humanos no es el éxito de lo que hacemos sino el empeño con que lo hacemos.


Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_