Google retira de su política la prohibición de usar la IA en armamento o vigilancia
Hasta ahora la compañía se autoimponía el compromiso de no aplicar tecnologías que pueden causar “daño general”
Google actualizó este martes sus guías éticas en el uso de la inteligencia artificial (IA) y excluyó el compromiso de no aplicar esta tecnología en aplicaciones relacionadas con armas o vigilancia que violen normas internacionales o contraríen los derechos. La redacción anterior, disponible hasta la semana pasada y que se puede consultar en Internet Archive, incluía aplicaciones que evitaría utilizar como “tecnologías que causan o es probable que causen daño general”, incluidas las armas, en línea con principios internacionales en derechos humanos.
Los cambios y la nueva visión de la compañía sobre sus principios de la IA fueron explicados este martes en el blog de la multinacional en un escrito firmado por el jefe de IA de Google, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad de la compañía, James Manyika. Google considera que “las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, indica el documento.
“Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional”, agrega.
La nueva actualización incluirá en este sentido disposiciones como que la empresa recurrirá al control humano y tendrá en cuenta la colaboración de los usuarios para garantizar que su tecnología se emplee de acuerdo a los principios “ampliamente aceptados del derecho internacional y los derechos humanos”.