Ir al contenido

La batalla por la ética de la IA

El choque de la empresa Anthropic con el Pentágono demuestra que Trump prefiere una inteligencia artificial sin escrúpulos

El consejero delegado de Anthropic, Dario Amodei. Priyanshu Singh (REUTERS)

El presidente de Estados Unidos, Donald Trump, ha ordenado a todas las agencias federales que dejen de utilizar los productos que desarrolla la empresa Anthropic, en especial su herramienta de inteligencia artificial generativa Claude, según los expertos, el mejor modelo para uso militar y la única autorizada en operaciones clasificadas (como la captura del presidente venezolano Nicolás Maduro). La empresa exige garantías de que la Administración no utilizará su IA para llevar a cabo una vigilancia masiva de los ciudadanos estadounidenses ni como parte de sistemas de armas autónomas sin supervisión humana. Trump sostiene que una empresa privada no debe decir a los militares cómo combatir ni cómo ganar guerras. El Pentágono ha amenazado incluso con calificar a la compañía como una amenaza para la cadena de suministro. Un trato solo dispensado hasta ahora a tecnológicas extranjeras (las chinas Huawei y ZTE, y la rusa Kaspersky) y que pondría en peligro su capacidad para contratar con otras empresas que a su vez trabajen para la Administración.

Además de los 200 millones de dólares del acuerdo en juego, el episodio desvela lo lejos que ha llegado ya el uso de la IA en las operaciones militares pese a que aún estamos en los primeros pasos en sus desarrollo. De hecho, apenas horas después de romper con con Anthropic, la Casa Blanca lanzó su ataque sobre Irán con la ayuda de esas mismas herramientas. Por encima de todo, el pulso entre la Administración estadounidense y la compañía que dirige Dario Amodei abre un debate sobre cómo usar la IA, sus riesgos y quién decide los límites a su uso: las empresas que la desarrollan o los Gobiernos. Comienzan a definirse así los contornos de un dilema crucial para nuestro futuro inmediato en torno a la inteligencia artificial y a su relación con el poder, es decir, a la ética. Algunas de las reticencias expresadas por la compañía californiana son las mismas que suscita el uso que puedan hacer de los datos de los ciudadanos los regímenes no democráticos.

El enfrentamiento tiene, además, un elevado componente personal y es un ejemplo de cómo Trump entiende el gobierno. Amodei respaldó en la campaña electoral de 2024 a la candidata demócrata, Kamala Harris, y se ha mostrado partidario de regular el uso de una tecnología que está revolucionando nuestras vidas a velocidad de vértigo. No en vano, Anthropic ha construido su identidad alrededor de la seguridad y la ética en los sistemas de IA. Trump, mientras, ha acusado al desarrollador de Claude de ser una empresa de izquierda radical y woke. Horas después de que el presidente ordenara romper con Anthropic, OpenAI —cuyo consejero delegado, Sam Altman, es un entusiasta donante trumpista— cerró un acuerdo con el Departamento de Guerra por el que cede todas las capacidades de su herramienta para cualquier uso legal.

La batalla de Anthropic —fundada por programadores que abandonaron OpenAI por diferencias de criterio sobre control de la IA— estaba en garantizar que el Pentágono no levantará las restricciones sobre vigilancia ciudadana y autonomía de combate cuando lo considere necesario aduciendo opacos motivos de seguridad militar. Perdió esta batalla porque los escrúpulos parecen ser un obstáculo para trabajar con la Administración Trump, pero el debate de la ética sigue. De cómo se resuelva dependerá que los aliados de la primera economía del mundo —entre ellos la UE— determinen si el modelo estadounidense de gobernanza tecnológica merece la confianza que hasta ahora se le había dispensado.

Archivado En