Deloitte pide a sus empleados en España que no compartan información confidencial en ChatGPT
La firma avisa en un correo interno de posibles fallas de privacidad, potenciales filtraciones de información sensible, sesgos discriminatorios y problemas éticos
Un nuevo invitado ha irrumpido con fuerza en las oficinas de las empresas de consultoría. Se llama inteligencia artificial. Y su capacidad para colarse en cualquier informe, asesoría, o trabajo desarrollado por sus empleados desata ya preocupaciones en la cúpula de las firmas de servicios profesionales. Así lo demuestra un correo electrónico interno enviado por Deloitte España el pasado 11 de abril, al que ha tenido acceso este diario...
Un nuevo invitado ha irrumpido con fuerza en las oficinas de las empresas de consultoría. Se llama inteligencia artificial. Y su capacidad para colarse en cualquier informe, asesoría, o trabajo desarrollado por sus empleados desata ya preocupaciones en la cúpula de las firmas de servicios profesionales. Así lo demuestra un correo electrónico interno enviado por Deloitte España el pasado 11 de abril, al que ha tenido acceso este diario. “No se debe aportar a estas plataformas de IA información confidencial propiedad del cliente, de terceros o de Deloitte”, dice una frase del texto de cuatro páginas remitido a los trabajadores de la compañía. En él, la empresa, con más de 8.000 profesionales en España, avisa de que cualquier uso de ChatGPT o herramientas similares debe contar antes con su aprobación.
La rapidez con que se está afianzando el uso de esta tecnología inquieta en las grandes corporaciones. La división australiana de otra Big Four (como se conoce a las cuatro grandes consultoras mundiales), PwC, ya envió el pasado febrero un mensaje pidiendo a sus empleados que no utilicen con los clientes material creado por estas aplicaciones. En el caso de Deloitte España, los miedos son muchos. A que salgan a la luz informaciones sin autorización: “Si los datos ingresados son almacenados en un servidor o base de datos, existe un riesgo potencial de que sean divulgados a terceros sin autorización, bien sea por fallas de seguridad, ciberataques, o violaciones de datos”, dice el correo. A que haya sesgos: “Si los datos de entrenamiento utilizados contienen sesgos o prejuicios, existe el riesgo de que las respuestas generadas por el modelo sean discriminatorias o injustas, incluso afectando a la privacidad de los individuos que interactúan con el modelo y a la reputación de las empresas que lo utilizan”. O a que se den por buenas respuestas plagadas de errores: “Existen limitaciones en la capacidad de estas herramientas para entender el contexto y el significado detrás de las palabras. Esto obliga a implementar adecuados mecanismos de validación y supervisión humana”.
La desconfianza sobre la utilidad de la información sobrevuela todo el documento. “Estas herramientas se entrenan utilizando datos históricos, lo que significa que pueden no ser adecuadas para detectar nuevas tendencias o problemas. [...] Puede conllevar un riesgo de falta de rigor y precisión en los trabajos”.
Las consultoras son muy solicitadas por Gobiernos, multinacionales y otras entidades necesitadas de asesoría con todo tipo de programas y planes de gasto. En unas agendas tan delicadas, muy dependientes de conocimientos técnicos que en muchos casos están ahora disponibles en ChatGPT, hay trabajadores que pueden tener la tentación de recurrir a la inteligencia artificial como la vía más rápida de zanjar sus dudas. Deloitte no cree que sea lo ideal, tanto por los motivos enumerados antes como por otros. “Si las respuestas generadas contienen información sensible protegida (por ejemplo, derechos de autor), o confidencial, existe un riesgo de que esta información sea utilizada de manera inapropiada”, apunta.
Aprobación del cliente
La casuística en la que pueden provocar el enfado de quienes les contratan es amplia. “Si Deloitte usa estas herramientas para obtener información sobre los clientes o para tomar decisiones sobre ellos sin su conocimiento o consentimiento, esto puede ser considerado poco ético y podría dañar nuestra reputación”, alertan. También estiman peligroso el uso de inteligencia artificial ”para obtener información sobre los clientes o para tomar decisiones sobre ellos sin su conocimiento o consentimiento”.
La firma pide a sus empleados que no usen sus correos corporativos para abrir cuentas en OpenAI —creadora de ChatGPT— salvo que haya sido expresamente autorizado. Y si ya la han abierto, les insta a comunicarlo a su responsable “lo antes posible·”. Además, deben informar al cliente si usan IA en un proyecto “y obtener su aceptación”.
Las suspicacias sobre las malas prácticas que pueden derivarse del uso de inteligencia artificial no son exclusivas de las empresas. La Unión Europea quiere regular ChatGPT por sus efectos sobre la privacidad de los usuarios, su potencial para difundir desinformación y la posible destrucción de empleo. Y uno de sus principales miembros, Italia, ha ido aún más lejos y ha optado por bloquear el acceso por incumplir la normativa de protección de datos, al considerar que recoge datos de los usuarios de manera ilegal.
Sigue toda la información de Economía y Negocios en Facebook y Twitter, o en nuestra newsletter semanal