El 40% de los trabajadores españoles preferiría que una inteligencia artificial tomara las decisiones en su lugar, según un estudio
La gran mayoría de los encuestados se considera bombardeada por más datos y más fuentes que nunca y casi el 60% admite que más de una vez al día no sabe qué decisión tomar
En poco más de cuatro meses, ChatGPT ha logrado hacerse un hueco en la rutina de muchos usuarios de internet, ya sean estudiantes o trabajadores. Puede que muchos no tengan claro qué tecnología lo sustenta o por qué un millar de expertos ha pedido frenar durante unos meses la actividad del programa. Sin embargo, se está asumiendo con tal naturalidad la presencia de la inteligencia artificial en nuestras tareas cotidianas que, según un estudio elaborado por Oracle, empresa de plataformas y aplicaciones en la nube, el 40% de los españoles preferiría que los algoritmos tomaran decisiones por él.
En el informe The Decision Dilemma (el dilema de la decisión), publicado este miércoles, se recogen datos de más de 14.000 empleados y líderes empresariales de 17 países, incluido España. Frente al problema de la saturación de los datos, el 45% de los jefes en nuestro país preferiría que todas las dificultades derivadas de ello desaparecieran y que una inteligencia artificial tomara las decisiones en su lugar. A Javier Arroyo Gallardo, profesor del Departamento de Ingeniería del Software e Inteligencia Artificial de la Universidad Complutense de Madrid, le sorprenden estas cifras: “Me parece que muestran una confianza muy alta en la inteligencia artificial (IA), cuando, en realidad, en la sociedad no tenemos muy claro qué es y cómo funciona y nos llegan a abrumar por ser muchas herramientas o complejas”, explica. A nivel global, el porcentaje de personas que delegarían en algoritmos es del 64%; y del 70% si nos referimos a los líderes empresariales.
Entre las conclusiones extraídas por la compañía estadounidense, destaca que para el 73% de los 1.000 españoles encuestados, el número de decisiones que toma cada día se ha multiplicado por 10 en los últimos tres años y, cuando tratan de tomar una decisión, el 85% se siente bombardeado por más datos de fuentes más distintas que nunca. Del mismo modo, el 82% afirma que el volumen de datos está dificultando mucho la toma de decisiones en su vida personal y profesional y el 59% admite que más de una vez al día no sabe qué decisión tomar. A pesar de la ansiedad que puede generar a las personas el volumen de datos y la dificultad para procesar tanta información, el profesor de informática explica que “debemos entender mucho mejor qué implicaciones tendría dar paso de que los algoritmos de inteligencia artificial tomen decisiones sensibles por nosotros”, puesto que nos podríamos llegar a sentir devaluados o alienados.
Arroyo insiste en que, aunque las herramientas como ChatGPT pueden ayudarnos a resolver muchas tareas, “no están diseñadas específicamente para la toma de decisiones y no sería adecuado delegarlas en ellas; al menos, si se trata de decisiones importantes para nosotros, que involucren a otras personas o que puedan afectar seriamente al medio que nos rodea”.
El estudio señala que para el 81% de los españoles la incapacidad para tomar decisiones tiene un impacto negativo en su calidad de vida y causa picos de ansiedad (43%), pérdida de oportunidades (25%) y gastos innecesarios (19%). Ante la saturación de información y las dificultades para discernir las fuentes dignas de confianza, el 94% de los encuestados ha cambiado su forma de tomar decisiones en los últimos tres años. Eso sí, según el 81% de los líderes empresariales, a menudo se toma primero la decisión y después se buscan los datos para justificarla. Y, además, el 24% de los empleados incluso siente que muchas decisiones tomadas en su empresa son irracionales. Según indica Albert Triola, director general de Oracle España, “los líderes empresariales que toman decisiones críticas sobre la gestión de sus empresas y no tienen en cuenta los datos, están corriendo un gran riesgo”.
Javier Arroyo reitera que delegar decisiones sensibles a una inteligencia artificial es un asunto complejo y, para ello, la IA debe ser transparente y ‘auditable’. “Se deben poder revisar y entender las decisiones que toma y los criterios que la guían, debe ser predecible porque eso nos permite saber qué podemos esperar y debe existir la posibilidad de determinar la responsabilidad en caso de que surjan problemas. Si las decisiones tienen un cariz moral, es complejo delegarlas en una IA porque no hay una moral única universal y hay que tener en cuenta que, en la mayoría de los casos, los sistemas aprenden de datos y que, por tanto, pueden reproducir sesgos y perpetuar los que no consideramos éticos o que son incluso ilegales”, añade.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.