_
_
_
_
CIENCIA
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

El riesgo de externalizar nuestro futuro al sector privado

El misterio es por qué los gobiernos entregan años de investigación con dinero público a las empresas

Oficinas centrales de Google en la ciudad californiana de Mountain View.
Oficinas centrales de Google en la ciudad californiana de Mountain View.Bumble Dee (Alamy / CORDON PRESS)
Katharina Pistor

El pasado mes de septiembre, el gobernador de California, Gavin Newsom, vetó un proyecto de ley de seguridad de la inteligencia artificial, y la Real Academia Sueca de Ciencias le entregó el Premio Nobel de Química a David Baker, profesor de la Universidad de Washington, y a Demis Hassabis y John M. Jumper, empleados de la subsidiaria DeepMind de Google y de su empresa derivada Isomorphic Labs. Tal vez parezca que estos dos episodios tienen poco en común, pero juntos sugieren que externalizar el futuro de la humanidad a corporaciones privadas que maximizan el lucro es algo a celebrar. Si bien el proyecto de ley de California no era perfecto, representaba el primer esfuerzo sustancial para hacer que los desarrolladores se hicieran responsables de los potenciales perjuicios que sus modelos de inteligencia artificial (IA) pudieran causar. Asimismo, se centraba no solo en cualquier riesgo sino en el “perjuicio crítico”, como el desarrollo de armas de destrucción masiva o la generación de un daño, como mínimo, de al menos 500 millones de dólares.

La industria tecnológica, Google incluida, hizo un lobby feroz contra el proyecto de ley, apelando a un argumento muy viejo. Como señaló el Financial Times en uno de sus editoriales, las nuevas regulaciones podrían “frenar el surgimiento de un tipo de innovación que ayudaría a diagnosticar enfermedades, acelerar la investigación científica e impulsar la productividad”: una vez más, esos costes de oportunidad se consideran más perjudiciales que cualquier daño que la IA pudiera causar a la capacidad de las personas de controlar su propio destino, o incluso de vivir en paz en sus sociedades.

El Premio Nobel 2024 representa la primera ocasión en que el galardón ha sido otorgado en una ciencia natural a empleados de una corporación multinacional. Todos los ganadores anteriores eran o habían sido profesores universitarios o investigadores de institutos de investigación financiados por los gobiernos, que habían publicado sus resultados en publicaciones revisadas por expertos y puesto sus hallazgos a disposición del mundo. Más allá de si fue o no la intención de la Academia sueca, su decisión de incluir a los investigadores de Google viene a legitimar la privatización de la ciencia, que ya no es parte de los bienes comunes de la humanidad. Como muchos otros recursos antes, la ciencia de IA está encerrada en un jardín amurallado al que solo pueden acceder aquellos que pagan la entrada.

Es verdad, el modelo de IA AlphaFold2, que les valió el premio a Hassabis y a Jumper, junto con su código fuente, está a disposición del público. Según AlphaFold.com, “DeepMind de Google y el Instituto Europeo de Bioinformática de EMBL (EMBL-EBI) se han asociado para crear AlphaFold DB para que la comunidad científica pueda acceder a estas predicciones de manera gratuita”. Por otro lado, DeepMind tiene múltiples patentes para AlphaFold. Según la lógica de los derechos de propiedad, la empresa, no el público, siempre tendrá la última palabra sobre el uso de la tecnología. El sitio web de AlphaFold es una “.com”, lo que denota algo fundamentalmente diferente del Proyecto del Genoma Humano, por ejemplo, con su URL “.gov”.

En el mundo de la tecnología de la información, “gratis” nunca es gratis. Los pagos se hacen en datos, no en dólares. Los datos que le permiten a AlphaFold predecir la estructura tridimensional de una proteína provienen del domino público. El socio de DeepMind en el desarrollo de AlphaFold es una organización de investigación intergubernamental financiada por más de 20 Estados miembros de la Unión Europea. Según Jumper, “los datos públicos fueron esenciales para el desarrollo de AlphaFold”. Sin los datos compilados y organizados por científicos que recibieron para ello dinero de los contribuyentes, AlphaFold no existiría.

A pesar de la clarividencia de los funcionarios públicos a la hora de crear esta gigantesca base de datos, los gobiernos suelen ser menospreciados por no tener el conocimiento, las capacidades, los recursos y la previsión necesarios para promover las innovaciones y hacer avanzar el progreso científico y económico. Constantemente nos dicen que solo el sector privado, con sus incentivos monetarios convincentes, puede hacer lo necesario para impulsar que el mundo evolucione hacia adelante.

En realidad, el sector privado normalmente se aprovecha del trabajo realizado por científicos financiados con dinero público o empleados por institutos públicos de investigación. El primer satélite fue lanzado por el Gobierno de Estados Unidos, no por Elon Musk; el ejército norteamericano desarrolló internet antes de que pasara a comercializarse, y las empresas farmacéuticas rara vez invierten en investigación básica. ¿Por qué preocuparse cuando se puede esperar a que los científicos financiados por los Institutos Nacionales de Salud de Estados Unidos u organismos similares hagan avanzar un campo hasta el punto en que se puedan hacer inversiones rentables?

Esa es la lógica de las grandes corporaciones con ánimo de lucro. Su objetivo son los retornos financieros, los beneficios cuanto mayores mejor, no el progreso humano. Una vez en el juego, intentan monopolizar el conocimiento científico asegurándose patentes u ocultando sus hallazgos detrás de barreras provistas por la ley de secreto comercial. Sin la ayuda del Estado, no tendrían ni ciencia básica ni protecciones legales para los monopolios que les proporcionan grandes beneficios —que luego esgrimen como prueba de su superioridad sobre el Gobierno—.

No es difícil entender por qué las empresas privadas disfrutan de este juego. El misterio es por qué los gobiernos se prestan voluntariamente al juego de la industria, entregando años de investigación financiada con fondos públicos sin garantizar que la población tenga voz y voto a la hora de determinar cómo se la usa. La legislación de California habría exigido que los modelos de IA incluyeran una capacidad de desconexión total en caso de que las cosas salieran mal, pero esta estipulación se eliminó con el resto del proyecto de ley.

No hay nada nuevo en el argumento de que si no sabemos lo suficiente sobre los daños futuros, deberíamos abstenernos de interferir en los mercados “privados”, que siempre funcionan mejor sin la “interferencia” del Gobierno. Las empresas petroleras y gasíferas dependieron de él cuando negaron el riesgo del cambio climático y su contribución al mismo, a pesar de que su propia investigación les dijera lo contrario. Sin embargo, aquí estamos otra vez. Aparentemente, deberíamos poner nuestro futuro en manos de las corporaciones privadas cuyo único objetivo es maximizar el valor de los accionistas. ¿Qué podría salir mal?


Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_