La Casa Blanca tratará de mitigar los riesgos de la inteligencia artificial con más inversión pública
Washington anuncia que dedicará 140 millones de dólares adicionales a promover “una innovación responsable” mientras Kamala Harris se reúne con los líderes de las grandes tecnológicas
La Casa Blanca ha anunciado este jueves nuevas medidas para incentivar la innovación responsable en inteligencia artificial (IA) y proteger los derechos y la seguridad de los ciudadanos. La Administración del presidente Joe Biden aspira a avanzar en un “enfoque cohesivo y global de los riesgos y oportunidades relacionados con la IA”, según la Casa Blanca. La proliferación del uso de herramientas como chatbots, así como la capacidad de la IA para manipular e incluso falsear imágenes, ha empujado a Washington a intentar poner coto a la popularización de su uso, en vísperas del arranque de una nueva campaña electoral, la de 2024. Si la desinformación en el ámbito virtual ha hecho estragos en los últimos años, el recurso a la IA para crear realidades alternativas es un riesgo estratégico demasiado elevado, como ha puesto de manifiesto esta misma semana el padre de la IA, Geoffrey Hinton.
La Fundación Nacional de las Ciencias (NSF, en sus siglas inglesas; agencia gubernamental) tiene previsto invertir 140 millones de dólares (unos 127 millones de euros) adicionales para crear siete nuevos Institutos Nacionales de Investigación sobre IA, de carácter temático, como informa en su web. En total, habrá 25 institutos nacionales de investigación de la IA en el país, con 500 millones de dólares de financiación para “apoyar una innovación responsable” que promueva el bien público. Como comparación, el gigante tecnológico Microsoft invirtió 10.000 millones de dólares solo en OpenAi, la compañía que desarrolla el popular ChatGPT. La Administración demócrata también se ha comprometido a publicar un borrador de directrices para que las agencias gubernamentales garanticen que su uso de la IA salvaguarda “los derechos y la seguridad del pueblo estadounidense”, además de conseguir el compromiso de varias empresas del sector de someter sus productos a escrutinio en una conferencia sobre ciberseguridad que se celebrará en agosto.
La vicepresidenta de EE UU, Kamala Harris, se ha reunido este jueves con los máximos responsables de Google, Microsoft, OpenAI y Anthropic, una start-up especializada en IA, para debatir sobre las posibilidades y los desafíos que presenta esta nueva realidad tecnológica. “El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos. Y todas las empresas deben cumplir las leyes vigentes para proteger al pueblo estadounidense. Espero con impaciencia el seguimiento y la evolución en las próximas semanas”, ha dicho Harris en un comunicado, en el que también recuerda el inquietante precedente de desinformación en las elecciones presidenciales de 2016, como un aviso para navegantes del potencial más negativo de la IA. “Como senadora y miembro de los comités de Inteligencia y Judicial [de la Cámara], investigamos la interferencia rusa en las elecciones de 2016 y produjimos pruebas empíricas de que los actores estatales utilizarán la tecnología para socavar la democracia”, subraya el comunicado.
La Casa Blanca está sometida a una creciente presión para vigilar la inteligencia artificial desde que el año pasado OpenAI puso a disposición del público esa aplicación y los particulares empezaron a utilizarlo de inmediato para buscar información, realizar tareas escolares o avanzar en el trabajo. Desde entonces, a un ritmo vertiginoso, algunas de las grandes tecnológicas se han apresurado a incorporar chatbots a sus productos y han acelerado la divulgación de la IA como un nuevo producto de consumo. Pero la existencia, también creciente, de imágenes falsas generadas por IA en internet supone un serio aviso, del que vienen alertando algunos expertos, incluido Hinton, del potencial desinformador que tiene esta tecnología, algo especialmente peligroso en campañas electorales y en un país tan polarizado política y socialmente como EE UU.
En una llamada con periodistas celebrada el miércoles, un alto funcionario de Washington ha recordado que la Administración de Biden “ha estado liderando estas cuestiones desde mucho antes de estos nuevos productos de IA”. “Para aprovechar las ventajas de la IA debemos empezar por mitigar sus riesgos. Y este principio básico ha guiado nuestro trabajo sobre la IA desde el principio”, añadió la fuente. En otoño, la Casa Blanca publicó el denominado Plan para una Declaración de Derechos de la IA, “un ancla importante y una hoja de ruta” sobre la que se ha construido la batería de salvaguardas. Junto con el llamado Marco de Gestión de Riesgos de la IA, se ha “dado a las empresas y a los responsables políticos y a las personas que generan estas tecnologías algunas formas claras de mitigar los riesgos”, dijo el alto funcionario.
El objetivo parece sencillo sobre el papel: aprovechar las oportunidades de la IA y a la vez mitigar sus riesgos, entre ellos la posible robotización o automatización de puestos de trabajo, con la consiguiente destrucción de empleo, como denunciaba Hinton entre otros. Como ponerle el cascabel al gato, la Administración de Biden sitúa a las personas y las comunidades en el centro de su estrategia; el bien público, la protección de la seguridad y la economía nacionales. Del llamamiento de la Casa Blanca se deduce que son las empresas las que tienen la responsabilidad fundamental de “asegurarse de que sus productos son seguros” antes de comercializarlos o hacerlos públicos. Y si para ello es necesario participar, junto a las tecnológicas, “en una evaluación independiente y pública de sus sistemas de IA en la AI Village de DEF CON 31, una de las mayores convenciones de hackers del mundo”, apuntó el alto funcionario, la Casa Blanca lo hará. “Estos modelos [de IA] serán evaluados allí por miles de socios de la comunidad y expertos para ver cómo se alinean con los valores descritos en el borrador de la Declaración de Derechos y en el Marco de Gestión de Riesgos”, añadió la fuente. La primera velará por que los sistemas automatizados protejan la privacidad de los datos y protejan a los usuarios de sesgos discriminatorios, otro de los temores que suscita la generalización de la IA.
En un artículo publicado el miércoles en el diario The New York Times, Lina Khan, presidenta de la Comisión Federal de Comercio —y conocido azote de los monopolios y las tecnológicas—, apuntaba que EE UU se encuentra en un “punto de decisión clave” sobre la materia. Equiparando el avance de la nueva tecnología con el nacimiento de gigantes como Google y Facebook, Khan advertía de que, sin una regulación adecuada, la tecnología podría afianzar el poder de las mayores empresas tecnológicas.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.