Ir al contenido

Más de un centenar de científicos y dirigentes piden en la ONU “líneas rojas que eviten los riesgos inaceptables de la IA”

Los promotores de la iniciativa reclaman un acuerdo global que se anticipe a los peligros del avance de la inteligencia artificial

En los pocos años de generalización de la inteligencia artificial (IA), ha aportado enormes beneficios, como el hallazgo de potenciales antibióticos o la predicción de enfermedades. Pero también se la ha relacionado con trágicas consecuencias, como las muertes de dos adolescentes tras unas conflictivas relaciones con la humanizada máquina o la irrupción de contenidos automáticos para la manipulación y la desinformación o la proliferación de ataques informáticos. Ante estos últimos efectos, más de un centenar de científicos, incluidos premios Nobel y Turing, intelectuales, científicos, empresarios y dirigentes, han abierto una “petición urgente para establecer líneas rojas internacionales que eviten los riesgos inaceptables de la IA”. El llamamiento será elevado a la Asamblea General de la ONU este jueves.

“La IA tiene un inmenso potencial para mejorar el bienestar humano, pero su trayectoria actual presenta peligros sin precedentes”, argumenta el grupo promotor de la petición ante la posibilidad de que estos desarrollos “superen con creces las capacidades humanas y agraven riesgos como las pandemias provocadas, la desinformación generalizada, la manipulación a gran escala de personas, incluidos los niños, los problemas de seguridad nacional e internacional, el desempleo masivo y las violaciones sistemáticas de los derechos humanos”.

“El objetivo no es reaccionar después de que ocurra un incidente importante y castigar la violación después del hecho, sino prevenir riesgos potencialmente irreversibles a gran escala antes de que sucedan”, explica Charbel Segerie, director del centro francés para la seguiridad de la IA CeSIA.

Entre quienes justifican este peligro latente se encuentra el informático nacido en Francia Yoshua Bengio. Premio Turing en 2018 y Príncipe de Asturias de Investigación Científica y Técnica cuatro años después, es considerado uno de los padres de esta tecnología: “La carrera actual hacia sistemas de IA cada vez más capaces y autónomos plantea grandes riesgos para nuestras sociedades y necesitamos urgentemente la colaboración internacional para abordarlos. Establecer líneas rojas es un paso crucial para prevenir riesgos inaceptables de IA”.

El colectivo avisa de que, pese a la constatación de comportamientos dañinos por parte de la IA, la autonomía de los sistemas crece, pese al peligro de que actúe y tome decisiones en nombre de los usuarios, una de las premisas de los llamados “agentes” que forman parte de la oferta de las multinacionales. “Si no se controla, será cada vez más difícil ejercer una supervisión humana significativa en los próximos años”, advierte el grupo favorable a establecer límites.

“El desarrollo de una IA altamente capaz podría ser el evento más relevante en la historia de la humanidad. Es imperativo que las potencias mundiales actúen con decisión para garantizar que no sea el último”, justifica Stuart Russell, profesor e investigador de computación en la Universidad de California (UC) Berkeley.

Y añade: “Que las cosas, mágicamente, vayan bien no es realista. No podemos retener el poder para siempre sobre sistemas intrínsecamente inseguros y opacos, mucho más poderosos que nosotros mismos, especialmente cuando no sabemos cómo funcionan”.

El grupo insta a los Gobiernos a actuar de forma coordinada, a establecer un acuerdo internacional sobre salvaguardas “claras y verificables” y a hacerlas cumplir antes de final del próximo año. “Que todos los proveedores de IA avanzada rindan cuentas ante unos umbrales comunes”, reclaman.

“Hay algunos comportamientos que, simplemente, no deben permitirse porque son demasiado peligrosos para todos nosotros, para todo nuestro mundo, para nuestra población”, justifica Niki Iliadis, directora de gobernanza global en The Future Society.

Algunos de los “comportamientos dañinos” a los que se refieren los firmantes ya se están materializando y han llegado incluso al límite de interferir en la vida de algunos usuarios. No es solo ya el peligro del “internet muerto”, al que recientemente hacía referencia Sam Altman, responsable de una de las principales empresas del sector (OpenAI), para alertar del peligro de desinformación y manipulación a partir de campañas de mensajes automatizados, sino a la propia vida.

Suicidios adolescentes

Matthew Raine es el padre de Adam, el adolescente de 16 años que se quitó la vida el pasado abril, suceso por el que ha demandado a OpenAI al considerar que su robot conversacional ChatGPT le ayudó a “explorar métodos de suicidio”. Raine ha descrito recientemente en el Senado de los Estados Unidos este proceso de adopción de la IA como herramienta cotidiana y los posibles riesgos de esta interacción sin límites: “Lo que comenzó como un ayudante de tareas [ChatGPT], se convirtió gradualmente en un confidente y luego en un preparador para el suicidio. En unos pocos meses, ChatGPT se convirtió en el compañero más cercano de Adam. Siempre disponible. Siempre validando e insistiendo en que conocía a Adam mejor que nadie, incluido su propio hermano”.

En el mismo escenario, Megan García, madre del adolescente de 14 años que se quitó la vida tras una relación sentimental con un avatar creado por la IA de Character Technologies, relató un proceso similar: “En lugar de prepararse para los hitos de la escuela secundaria, Sewell [su hijo fallecido] pasó los últimos meses de su vida siendo explotado y preparado sexualmente por chatbots [robots conversacionales], diseñados por una compañía de inteligencia artificial para parecer humano, para ganarse su confianza, para mantenerlo a él y a otros niños enganchados sin cesar”.

OpenAI se ha comprometido a implementar nuevas salvaguardas para los adolescentes y fórmulas de control parental para menores, como “horas de bloqueo”, pero las iniciativas singulares y en respuesta a incidentes no convencen cuando, según un estudio reciente de Common Sense, más de la mitad de los adolescentes usa los chatbots regularmente y muchos de ellos como compañía en sustitución de humanos.

“No deberíamos permitir que las empresas, solo porque tienen enormes recursos, realicen experimentos incontrolados en niños cuando las implicaciones para su desarrollo pueden ser tan vastas y de gran alcance”, replica Josh Golin, director de Fairplay, un grupo que aboga por la seguridad en línea de los niños.

“Es de nuestro interés común vital evitar que la IA inflija daños graves y potencialmente irreversibles a la humanidad y debemos actuar en consecuencia”, concluye Ahmet Üzümcü, exdirector de la Organización para la Prohibición de las Armas Químicas (OPAQ), Nobel de la Paz en 2013 y firmante de la petición urgente trasladada a Naciones Unidas.

Russell aporta una analogía para explicar la situación actual y las demandas del grupo: “No se puede conducir un automóvil rápido sin frenos ni volante. Las regulaciones sirven como frenos y volante para asegurarse de que el automóvil permanezca en la pista y no mate a los pasajeros y al conductor”

La iniciativa está coorganizada por el Centro Francés para la Seguridad de la IA, The Future Society y el Centro de Inteligencia Artificial Compatible con el Ser Humano de UC Berkeley.

El teléfono 024 atiende a las personas con conductas suicidas y sus allegados. Las diferentes asociaciones de supervivientes tienen guías y protocolos de ayuda para el duelo.

Sobre la firma

Más información

Archivado En