El plagio en las escuelas, el futuro del trabajo y la igualdad de oportunidades: estos son los desafíos que plantea la inteligencia artificial
Los sistemas de IA generativa han revolucionado la creación de contenidos, pero a la vez plantean preguntas éticas, técnicas y sociales que es necesario responder adecuadamente
Casi dos tercios (el 63 %) de los docentes estadounidenses usan ya la inteligencia artificial generativa para planificar sus clases, encontrar actividades creativas o elaborar una base sobre la que desarrollar el resto de su temario, según una encuesta de Impact Research y Walton Family Foundation. Junto a ellos, la usan un 42 % de los estudiantes, y tanto profesores como alumnos y padres tienen una opinión positiva de esta herramienta. Una inmensa mayoría (el 84 %) de los docentes que ya han usado ChatGPT consideran que su impacto en la enseñanza es muy positivo. Y, sin embargo, su uso plantea sobre todo ciertas preguntas relacionadas con la autenticidad de los trabajos: ¿existe alguna manera de prevenir o combatir la posibilidad de plagio?
“Prevenir el plagio es tan sencillo como poner al estudiante en una situación en la que tenga que demostrar que en verdad posee el conocimiento. Esto ya existe desde las escuelas del Antiguo Egipto”, señala Carlos Guardiola, director de Nuevos Negocios en la escuela de profesiones digitales Ironhack. A través de un trabajo de reflexión, señala, los estudiantes accedían a un tema, buscaban fuentes, contrastaban información y elaboraban su propia conclusión razonada. “El objetivo es que el alumno aprenda a hacer una reflexión crítica por su cuenta y que luego demuestre ser capaz de ello”, añade.
Sin embargo, abordar el desafío que presenta la inteligencia artificial generativa exige, antes que nada, adaptar las metodologías educativas de manera que no sea tan sencillo usar herramientas como ChatGPT para generar en segundos un contenido que hacer pasar como propio. Un peligro que coloca en el foco del debate la necesidad de educar a los estudiantes en cuestiones de tipo ético como la integridad académica.
“Una de las claves para combatir el plagio es cambiar el enfoque de la evaluación: en vez de centrarse en el producto final, los educadores deben prestar atención al proceso de aprendizaje del estudiante, lo que implica valorar las discusiones en clase, los borradores, las reflexiones y cualquier otro método que muestre el proceso de pensamiento y desarrollo del estudiante”, señala Frankie Carrero, director de Data & IA en VASS. En otras palabras, alentar a los alumnos a pensar de manera crítica y creativa.
Tanto Guardiola como Carrero (y una gran mayoría de docentes) coinciden en señalar la oportunidad que representa la incorporación a la enseñanza y el aprendizaje de estas y otras herramientas basadas en la inteligencia artificial. Llueve sobre mojado porque, para maximizar estas oportunidades, sería conveniente rebajar las ratios actuales de profesores y alumnos, un debate que tras dejar atrás la pandemia vuelve (cómo no) a caer en saco roto frente a la falta de voluntad política. “Gracias a la IA y a su capacidad para mejorar la experiencia del alumno y la del profesor, hay una gran oportunidad de volver a un entorno formativo más cercano y personal, con un maestro que tenga menos alumnos por clase y que trabaje más cerca de ellos, fomentando un diálogo que ayude a percibir su capacidad de razonamiento”, esgrime Guardiola.
¿Se puede detectar el uso de una IA?
A día de hoy ya existen herramientas especializadas que afirman ser capaces de diferenciar los contenidos generados humanos de aquellos generados por IA: GPTZero, Writefull’s GPT Detector, Originality.ai y Copyleaks son alguno de ellos. Se trata de aplicaciones que analizan las características específicas del texto, como patrones repetitivos o inusuales, la falta de originalidad y la estructura general de las oraciones. “Aunque los modelos de IA pueden imitar estilos de escritura, a veces generan textos que carecen de “toque humano”, son repetitivos o hacen afirmaciones demasiado generales”, advierte Carrero. Pero estas herramientas de detección tampoco son infalibles: algunos estudios recientes, como el publicado en ScienceDirect, han revelado que estas herramientas pueden cometer errores, identificando textos humanos reales como generados por IA.
Y es que, si la tecnología posibilitó la creación de estas soluciones, también hizo lo propio con el desarrollo de técnicas para evadirlas... Sin olvidar la más básica (y analógica de todas): una persona puede pedirle un texto a una IA y luego hacerlo suyo, modificándolo, cambiando la redacción a su antojo y así haciéndolo virtualmente indetectable.
Ante este reto, habrá quien todavía se pregunte si acaso es factible restringir o, directamente, prohibir el uso de herramientas de IA generativas por parte de los estudiantes, como de hecho ya se hizo a lo largo del último año (el Estado de Nueva York y las escuelas de Seattle, en EE UU, y las universidades australianas son varios ejemplos). Un año después de la irrupción de ChatGPT, la tendencia es más hacia cómo se la puede incorporar de forma productiva en las aulas, pero sigue echándose en falta una regulación de uso adecuada: de acuerdo con un reciente informe de la UNESCO llevado a cabo en más de 450 escuelas y universidades, menos del 10 % han implementado políticas institucionales o directrices que regulen el uso de aplicaciones de IA generativa.
El mismo organismo recuerda además que, si bien el uso de la tecnología puede ser beneficioso para la educación, también puede tener un impacto perjudicial si se emplea en exceso o sin la adecuada supervisión por parte del profesor, ya que entonces contribuye a su distracción y genera un peor rendimiento. Hay estudios recientes que advierten del efecto negativo que provocan en la atención y capacidad de concentración de los alumnos de Infantil y Primaria; y, de hecho, el informe GEM de la UNESCO de julio de 2023 recomienda a los colegios de todo el mundo que prohíban el uso de dispositivos como smartphones o tablets.
¿En qué profesiones puede la IA ser más útil?
El uso de la IA generativa tiene el potencial de mejorar la productividad y ahorrar tiempo a los profesionales de cualquier sector, pero muy especialmente a aquellos que se dedican a gestionar información y conocimiento: programadores, abogados, periodistas, profesores, economistas, publicistas, administrativos... ¿Por qué? “Muy sencillo: un sistema de IA generativa puede ayudar en todas las tareas que hace un trabajador de la información; y las ventajas pueden medirse tanto desde el punto de vista de la productividad como de la mejora personal, potenciando las capacidades de la persona”, indica Guardiola.
En el sector jurídico, por ejemplo, estas innovaciones realizan una gran cantidad de funciones que antes llevaban a cabo las personas, contribuyendo a la automatización del trabajo y la simplificación de algunas tareas. “Así, se acaba el aburrimiento y el abogado pasa a focalizarse en lo que le aporta valor, además de conseguir un mayor equilibrio entre la vida laboral y personal”, indican desde Lefebvre. Entre otras ventajas, y gracias a la IA, “la información jurídica será además mucho más accesible tanto a clientes como a profesionales del sector, pudiendo ofrecer desde consejos legales hasta explicaciones adaptadas a cada caso”.
“Quizás no lo vemos como algo positivo en este momento porque surgen muchas dudas y riesgos no conocidos que habrá que evaluar, pero si reflexionamos sobre todo ello, veremos que podremos elevar el intelecto humano a otro nivel”, esgrime Carrero. “Tendremos a nuestra disposición un set inmenso de asistentes personales, imagen, voz, vídeo... que pueden ayudarnos a potenciar nuestra creatividad”.
Retos y desafíos de la IA
Pese a las ventajas ya señaladas, la verdadera cuestión puede que radique en dónde poner el límite en el uso de las herramientas de IA generativa. Los desafíos no son escasos, como recuerda Carrero: “Los profesores y educadores se enfrentan a la posibilidad de plagio; los periodistas, a las fake news; los diseñadores y artistas, a diseños y obras de arte producidos por la IA que pueden poner en tela de juicio el valor y la singularidad del trabajo humano; y en el mundo del entretenimiento, el papel de la IA en la creación de música, literatura o películas llega a cuestionar la autoría y la originalidad”.
Los desafíos éticos, técnicos y sociales que plantea la IA sirven, además, para ilustrar la necesidad de desarrollar una regulación adecuada que aborde todos sus peligros:
- La posibilidad de sesgo y discriminación. “Puesto que los sistemas de IA se entrenan con datos, si se refleja cualquier tipo de prejuicios, estos se pueden acabar amplificando. Y ello podría, a su vez, resultar en toda clase de decisiones injustas, desde la selección de personal hasta fallos judiciales”, afirma Carrero.
- Igualdad de oportunidades. La AI Act, que se está elaborando en el seno de la Unión Europea y que verá la luz previsiblemente a finales de 2025 o principios de 2026, se basará en los principios de transparencia, igualdad de oportunidades, no discriminación y otros aspectos como la prohibición del reconocimiento facial y el scoring social.
- Privacidad y datos. La IA tiene el potencial de recopilar y analizar información personal a una escala sin precedentes. Sin regulaciones claras, esto podría llevar a violaciones de la privacidad.
- Libertades y derechos civiles. La regulación en el campo de la tecnología es una manera de defender los derechos civiles, “cuando las reglas del libre mercado hacen que surjan tecnologías que obedecen a la voluntad de empresarios privados, pero con un impacto y unas consecuencias imprevistas en la sociedad, de las que nadie se hace responsable”, apunta Guardiola.
- Responsabilidad. Para Carrero, es necesario establecer unas líneas claras respecto a la asunción de responsabilidad cuando un sistema de IA comete un error, especialmente en áreas críticas como la medicina, el transporte, las finanzas o el ámbito militar (como en sistemas de armas autónomas).
- Desinformación. Las herramientas de IA pueden generar información falsa o manipulada, como sucede en el caso de los deepfakes, con serias implicaciones en campos como la política, el periodismo y la percepción pública.
Guardiola, por su parte, hace hincapié en el efecto que la IA generativa puede tener ene l ámbito laboral: “Reducir costes es la decisión racional de cualquier empresa (…). Más que para una profesión, el riesgo está en los profesionales, y en la capacidad de reemplazar a una persona por otra que tenga la misma productividad a un menor coste, y complementándola con una IA”. Y luego, añade, está el reto para los países: “La competitividad de las personas, llevada a la deslocalización del trabajo y la globalización, puede hacer que la riqueza que se pierda en un país se genere en otro de un bloque diferente. A nivel europeo, por ejemplo, se pueden articular programas como los NextGen, para que la competitividad a nivel de bloque se mantenga y la riqueza que se cree se distribuya”.
¿Hacia dónde irá la IA generativa?
Si, en la actualidad, la IA generativa depende de la voluntad y las instrucciones de quien la usa para generar un contenido, una condición que según Guardiola quedará superada en el futuro: “El siguiente salto tiene que ver con la capacidad de la IA de elegir una acción, hacerla y, por lo tanto, tener responsabilidad (o agency, por su término en inglés) sobre la misma. Aplicado a la IA generativa, significaría, por ejemplo, conocer las inquietudes de un colectivo y materializar propuestas culturales que respondan a su interés”.
Pero las posibilidades son muchos mayores. Se espera también que acelere el desarrollo de entornos 3D para realidad virtual y aumentada; y en los videojuegos, contribuirá a la creación de entornos más inmersivos y personajes no jugadores que interactúen más realísticamente. Y Guardiola termina citando a Mustafa Suleyman, cofundador de DeepMind, quien en su ensayo The Coming Wave afirma que “en un futuro cercano, una IA debería ser capaz de identificar un reto de un colectivo, idear una solución, construir sobre ella un modelo de negocio, materializarla y comercializarla de manera exitosa”.
FORMACIÓN EL PAÍS en X y Facebook
Suscríbase a la newsletter de Formación de EL PAÍS