Frenar el desarrollo de la inteligencia artificial no es útil ni realista
Dejar de investigar e invertir en IA también conlleva un dilema moral en cuanto a la solución de multitud de penalidades que arrastra la humanidad
Estaba escribiendo un hilo en Twitter para expresar mis reflexiones sobre practicar una moratoria en el desarrollo de la inteligencia artificial, símbolo de cómo ha cambiado ya la forma de comunicarnos en nuestros días, cuando caí en la cuenta de que prefería escribir un texto más largo y reposado, símbolo de lo complicado que resulta adaptarse a los cambios para un mamífero semi inteligente de mediana edad. Y de adaptación es de lo que precisamente quiero hablar. Y también de cuestiones éticas y morales. Y sí, quiero reflexionar porque estoy lejos de tener respuestas contundentes e indubitadas en cada uno de los aspectos del debate, aunque sí algunas certezas.
En los últimos días se han repetido los manifiestos y declaraciones por parte de algunos expertos y personalidades públicas, algunas tan controvertidas desde el punto de vista de la honestidad ética como Elon Musk, abogando por una moratoria en la investigación y desarrollo de la inteligencia artificial (IA), debido a los enormes riesgos que esta comporta y de la alta probabilidad de que en algún momento escape de “nuestro control”. Como a Saulo llegando a Damasco, una súbita luz se ha encendido en sus cabezas para, tras décadas de investigación en IA, darse cuenta ahora de que un escenario en el que, como sucedía en Terminator, Skynet decida que los humanos somos una amenaza para la sostenibilidad planetaria es algo más que el buen argumento de una fantasía distópica. Y diría que no les falta razón en su diagnóstico y tampoco en sus miedos, pero sí les creo errados en esa pulsión neoludita que les inspira como conclusión. Entre otras cosas, porque la historia nos muestra que los seres humanos somos perfectamente capaces de arruinarnos nuestro presente y futuro sin necesidad de asistencia de ningún cerebro cibernético. El botón rojo se sigue pudiendo pulsar con un dedo. Kubrick nos mostró que el mundo se podía acabar a ritmo de rodeo texano.
Es cierto que la irrupción de una inteligencia artificial generativa como ChatGPT ha puesto en el espacio público un debate que se estaba realizando en ámbitos muy reducidos, y eso es eminentemente bueno y necesario, pero quizá el sesgo amenazador clickbait de muchas de las noticias generadas no sea la mejor forma de hacer pedagogía. Llevo trabajando en una regulación europea de la IA desde 2019 y soy crudamente consciente de los enormes riesgos, pero también de que la mayor parte de los mismos tienen que ver con un uso indebido o doloso por parte de algún ser humano o grupo de ellos. Es cierto que esta tecnología tiene la capacidad privativa y novedosa de ser capaz de evolucionar por sí misma sin la asistencia de un humano y sin que, en ocasiones, sea posible anticipar exactamente en qué sentido lo va a hacer. Y todo a una velocidad que cada vez es más vertiginosa. Esto nos plantea retos como animal adaptativo que somos. ¿Tenemos capacidad de adaptarnos a tal velocidad a los avances tecnológicos? Esto se deberá contestar desde la antropología y, en cualquier caso, estudiar remedios si es que la respuesta no es positiva —aprovecho para, al calor de la última afirmación, aseverar que la ilustración digital y la formación de expertos no se puede reducir al ámbito de la computación o de las ciencias exactas: ante el cambio civilizatorio que se alumbra, necesitamos el concurso de filósofos, juristas, artistas...—.
Antes hablaba de que era consciente de los riesgos, pero también lo soy del asombro salto en bienestar que esta tecnología puede traernos. Estaba hace unos días con un cardiólogo que trabaja con modelos de IA para diagnóstico y me hablaba, emocionado, de los patrones que están descubriendo a través del análisis del simple latido del corazón para diagnosticar enfermedades con asombrosa anticipación, estableciendo relaciones con dolencias que nadie hubiera podido siquiera llegar a sospechar. En el ámbito de la productividad mundial, los estudios más conservadores hablan de que la incorporación masiva de la IA la multiplicará por siete; bien es cierto que ello no es per se una buena noticia para la mayoría de la humanidad, todo depende de la capacidad que tengamos para distribuir equitativamente sus beneficios.
Las instituciones europeas llevamos trabajando años en el establecimiento de un marco jurídico para la inteligencia artificial. El Parlamento Europeo elaboró una primera propuesta legislativa sobre ética en IA (de la que fui ponente en 2020) y hoy está terminando de discutir una regulación holística que se aprobará, con toda probabilidad, bajo la próxima presidencia española. Europa se adelanta al resto de mundo con la intención no solo de encontrar el equilibrio virtuoso entre desarrollo y protección de nuestros derechos de ciudadanía, sino de que eso sirva como brújula para el establecimiento de un esquema mundial compartido. El llamado efecto Bruselas establece en buena lógica incentivos para que los agentes internacionales adapten su operativa a los parámetros europeos, si es que quieren trabajar en un rico mercado de casi 500 millones de personas. Y este creo que es el camino.
Entiendo que se eleve la voz de alarma y es hora ya de que se aborden públicamente debates muy necesarios sobre el cambio de civilización que nos traerá la IA. Una sociedad democrática tiene derecho a gobernar ese cambio, estableciendo reglas y límites. Pero no creo que una moratoria en el desarrollo sea útil ni realista. El mundo es mucho más grande que Occidente —nos lo deberíamos repetir todos los días como una especie de memento mori, porque su inobservancia solo nos trae problemas de comprensión de la realidad— y esa hipotética moratoria no se va a producir en todos los países, ni siquiera en la mayoría, lo que solo abundaría en una brecha de desarrollo que no nos podemos permitir. En materia de IA, meses significa años en otras tecnologías, pensemos en que la experta Nuria Oliver afirmaba hace poco que hay estudios científicos firmados a finales de 2022 que hoy ya están obsoletos.
Más arriba hablaba de la pedagogía general que merecen nuestras sociedades, las noticias deberían subrayar muchas más cosas que el monstruo de Frankenstein anda suelto. Y también hacía referencia a los tremendos beneficios que la IA puede aparejar. Dejar de investigar e invertir en IA también conlleva un dilema moral en cuanto a la solución de multitud de penalidades que arrastra la humanidad. Pensemos en la lucha contra las enfermedades o contra el cambio climático, en la multiplicación de la eficiencia de los cultivos o en la gestión eficiente del uso de agua... Parar ahora tiene también ese coste.
Me produce dudas una propuesta que estimo poco realista. No conozco un solo caso en la historia de la humanidad en el que un desarrollo tecnológico o científico se haya detenido abruptamente, o que, aún menos, haya tenido marcha atrás. Creo que es el momento de democratizar la reflexión y de plantear límites en los usos y control en la implementación de los modelos, como estamos haciendo las instituciones europeas. Y de que ese debate sea también a escala mundial. Y también de ser conscientes de que necesitamos inversiones grandiosas en formación humana, instrumentos de control y estructuras de gobernanza, a la escala que nos sitúa este desarrollo tecnológico.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.