Cuando la inteligencia artificial hace los deberes, la educación cambia de reglas
La expansión de la IA en las aulas empuja a replantear la evaluación y transforma la manera de enseñar, aprender y acompañar a los estudiantes
La escuela ha entrado en la era de la IA sin un manual de instrucciones. En apenas tres cursos, las herramientas de inteligencia artificial generativa como ChatGPT o Gemini han pasado de ser una curiosidad a formar parte de la rutina cotidiana de docentes y alumnos, y la discusión ya no es si se usarán, sino más bien cómo. Ese debate, además, ha dejado de limitarse a las aulas de Primaria o Secundaria: también las universidades han empezado a integrar estas tecnologías en sus procesos de enseñanza, aprendizaje y evaluación, aunque lo hacen todavía en un escenario de transición, con más preguntas que certezas.
El marco regulatorio europeo empieza a tomar forma. La Ley de Inteligencia Artificial de la UE considera de “alto riesgo” los sistemas que deciden el acceso a centros, evalúan aprendizajes o supervisan exámenes, lo que obliga a extremar las garantías. Mientras, organismos como la Unesco vienen repitiendo una advertencia que ya se ha vuelto habitual en este debate: la tecnología no debería entrar en el aula por inercia, sino solo cuando aporta algo real al aprendizaje y con reglas claras para quienes la usan.
En España, el marco tampoco es nuevo. El Ministerio de Educación actualizó en 2022 el de la competencia digital docente y publicó una guía sobre el uso de la IA generativa en el aula centrada en la formación del profesorado, la transparencia y la protección de datos. En paralelo, el Congreso sigue tramitando una ley para proteger a los menores en entornos digitales que, entre otras medidas, permitirá a los centros regular el uso de móviles y reforzar la educación en hábitos de pantalla.
El aula ya ha cambiado
La IA ha empezado a colarse en el aula también como herramienta para cambiar la forma en que los alumnos aprenden, no solo lo que hacen. En sistemas como Gemini, por ejemplo, el estudiante puede activar un modo de “aprendizaje guiado” que altera la dinámica habitual: en lugar de limitarse a ofrecer una respuesta cerrada, la herramienta devuelve preguntas, pide que se expliquen los pasos seguidos, sugiere caminos intermedios o propone ejercicios similares para comprobar si lo aprendido se sostiene fuera del ejemplo inicial.
“Las posibilidades pedagógicas que abre la IA pretenden hacer el aprendizaje más atractivo, efectivo y personal, permitiendo que los alumnos la usen como un medio para explorar su curiosidad, en vez de como un fin exclusivo para ejecutar tareas”, señala Maureen Heymans, vicepresidenta de Google para Ingeniería del Aprendizaje.
“Con este modo, la intención es distinta: no se busca solo una respuesta, sino un aprendizaje”, explica a su vez Marc Sanz, director de Educación en Google para la península ibérica, Oriente Medio y África. La clave no está tanto en la herramienta como en el uso que se hace de ella: pasar de emplear la IA como un atajo para resolver tareas a convertirla en un apoyo para comprender mejor los contenidos, y definir con claridad en qué momentos del proceso de aprendizaje tiene sentido utilizarla y en cuáles no. En algunos casos, eso ya se traduce en pautas concretas en el aula: profesores que delimitan en qué fases de un trabajo se puede recurrir a la IA —por ejemplo, para generar ideas o revisar un borrador— y en cuáles debe quedar fuera.
La progresiva introducción de estas herramientas según la edad es otro aspecto clave. En las etapas de Infantil y Primaria, señala Julia Wilkowski, directora de Pedagogía en Google, “debe hacerse siempre en colaboración con un adulto”, ya que los alumnos pequeños aún no disponen de la madurez crítica necesaria para valorar las respuestas. Y solo cuando han adquirido destrezas básicas en lectura, escritura o matemáticas (a partir de los 13 años, según sus recomendaciones), tiene sentido que la IA se convierta en un apoyo autónomo para ampliar o reforzar aprendizajes.
Ese mismo debate —cómo usar la IA y con qué límites— ha empezado a trasladarse con fuerza a la educación superior, donde su impacto no solo afecta a la forma de estudiar, sino también a la manera en que se organiza la docencia y se evalúa a los estudiantes.
La universidad como laboratorio de la IA
Ese mismo proceso de adaptación ha empezado a acelerarse en la educación superior, donde la inteligencia artificial no solo se utiliza como apoyo puntual, sino que empieza a integrarse en el propio funcionamiento de la docencia. En universidades como la Universitat Oberta de Catalunya (UOC), este cambio se aborda ya de forma más estructurada, con la creación de un centro específico que busca ordenar su uso y aplicarlo allí donde realmente pueda mejorar los procesos.
“Lo que cambia es el enfoque: pasamos de iniciativas que surgen de manera dispersa a una visión más estratégica, en la que se identifican qué procesos queremos mejorar y cómo la IA puede ayudarnos a hacerlo”, explica Ricard Gómez, vicegerente de Talento, Transformación y Organización de la UOC. La clave, añade, no es incorporar tecnología por inercia, sino hacerlo con objetivos concretos y bajo criterios de eficiencia, ética y control.
En la práctica, ese cambio ya empieza a notarse en tareas muy concretas. Una de las más evidentes es el feedback al estudiante, especialmente en contextos con grandes volúmenes de alumnado. “La IA debe ser un aumentador de las capacidades del profesorado, no un sustituto”, resume Gómez. “Puede ayudar a analizar el trabajo del alumno y preelaborar un retorno de calidad, de manera que el profesor pueda ofrecer una respuesta más rica sin tener que invertir el mismo tiempo en revisar todo el proceso”.
Ese apoyo también se extiende al seguimiento del estudiante, aunque a menudo pase desapercibido. En una universidad con cerca de 100.000 alumnos, detectar de forma temprana quién necesita ayuda no es trivial. “Podemos identificar patrones de actividad que indican que un alumno tiene dificultades o riesgo de abandono y centrar ahí los esfuerzos”, explica. El resultado, más que una intervención automatizada, es una sensación de mayor cercanía: el alumno percibe un acompañamiento más personalizado, aunque no vea directamente la tecnología que hay detrás.
Más allá del corto plazo, la IA abre también la puerta a nuevas formas de organizar el aprendizaje. Desde la posibilidad de adaptar un mismo contenido a distintos formatos —audio, vídeo o materiales interactivos— hasta permitir que sea el propio estudiante quien decida cómo quiere acceder a esa información en cada momento. Un cambio que no solo afecta a la enseñanza, sino también a la experiencia misma de aprender.
La evaluación, en el centro del cambio
Más allá de las herramientas o los usos concretos, el impacto más profundo de la inteligencia artificial en la educación apunta a un terreno más delicado: la evaluación. Durante décadas, el sistema ha descansado en gran medida sobre pruebas que miden la capacidad de recordar y volcar información aprendida. Pero ese modelo empieza a resquebrajarse en un contexto en el que cualquier alumno puede acceder en segundos a respuestas elaboradas con un alto nivel de calidad.
“Lo que no tiene sentido es una evaluación memorística o basada en reproducir contenidos que una inteligencia artificial puede generar de manera inmediata”, plantea Gómez. El problema, añade, no es tanto que los estudiantes utilicen estas herramientas —algo que se da por hecho—, sino que el sistema siga midiendo aprendizajes de la misma manera que antes.
Ese desajuste ha abierto una fase de transición en la que conviven normas que intentan limitar el uso de la IA con prácticas cada vez más extendidas entre los alumnos. “Estamos en un momento en el que unos intentan impedirlo y otros forzar los límites”, resume. Pero, a medio plazo, el cambio parece inevitable: la evaluación tendrá que desplazarse hacia modelos que no se basen en la memoria, sino en la capacidad de interpretar, relacionar y aplicar conocimientos.
En ese escenario, la frontera entre aprender y evaluar tiende a diluirse: “La evaluación debería estar integrada en el propio proceso de aprendizaje, no concentrarse en un momento puntual”, explica Gómez. Eso abre la puerta a formas de seguimiento más continuas, en las que el progreso del estudiante se mida a través de su interacción con los contenidos, las preguntas que formule o la manera en que construya sus propias respuestas.
El reto no es menor. Como ya han advertido distintos expertos, los sistemas de detección de texto generado por IA siguen siendo poco fiables y pueden dar lugar a errores o discriminaciones. La alternativa, cada vez más compartida, pasa por rediseñar las tareas: dar más peso al proceso que al resultado final, exigir explicaciones, comparaciones o análisis que obliguen al alumno a posicionarse y hacer explícito su razonamiento.
En el fondo, se trata de un cambio de lógica. Si el conocimiento está disponible de forma casi inmediata, lo que pasa a ser relevante no es tanto recordarlo como saber qué hacer con él. Y ahí, la inteligencia artificial deja de ser un problema que controlar para convertirse en un elemento más del propio proceso de aprendizaje.
Un proceso con ventajas y riesgos
La extensión de estas herramientas está teniendo, además, un impacto inmediato en el día a día docente. Uno de los más visibles es el tiempo. Un estudio del Education Endowment Foundation en centros ingleses publicado en diciembre de 2024 muestra que los profesores de Secundaria que utilizan IA generativa con una guía de buenas prácticas reducen en un 31% el tiempo dedicado a la planificación. No se trata, por tanto, de sustituir al docente, sino de liberar horas para tareas de mayor valor educativo.
Ese ahorro convive con una de las promesas más repetidas de la IA: la personalización del aprendizaje. La posibilidad de adaptar materiales al nivel, ritmo o estilo de cada estudiante, ofrecer un feedback más inmediato o generar contenidos dinámicos abre la puerta a una enseñanza más flexible, pero también plantea interrogantes: “La IA puede amplificar desigualdades si no se usa de forma adecuada, porque no todos los estudiantes parten de un mismo punto. Un alumno con dificultades de aprendizaje, como dislexia o TDAH, puede recibir recomendaciones que no se ajusten a sus necesidades, mientras que otros avanzan más rápido si no hay mecanismos de compensación”, advierte Juan Luis Moreno, director ejecutivo en The Valley. En otras palabras, la personalización solo funciona si va acompañada de recursos suficientes para quienes más lo necesitan.
El debate no se limita, sin embargo, a la equidad, porque también afecta a la forma en que los estudiantes se relacionan con el conocimiento en un entorno cada vez más mediado por pantallas. “El riesgo no es solo qué hacen con la IA, sino cuánto tiempo pasan conectados y en qué condiciones”, señala Jordi Cirach, experto en bienestar digital. De ahí la importancia de introducir límites claros, alternar con actividades analógicas —como escribir a mano o trabajar sin dispositivos— y enseñar a evaluar de forma crítica la información que reciben. En ese equilibrio, recuerda, también se juega una parte del aprendizaje.
A ello se suma un riesgo menos visible, pero igual de relevante: el de dar siempre por buenas las respuestas que de la tecnología: “La forma natural es aceptar lo que devuelve la máquina sin cuestionarlo. Por eso hay que obligar al alumno a comparar, analizar y posicionarse”, señala Gómez. En lugar de evitar la IA, el reto pasa por diseñar tareas que exijan ese esfuerzo: contrastar respuestas, identificar diferencias o justificar por qué una solución es mejor que otra.
Pero incluso en ese escenario, hay una idea en la que inciden repetidamente los expertos: la tecnología no sustituye la dimensión más humana del aprendizaje. “El verdadero valor sigue estando en la capacidad del docente para inspirar, motivar y enseñar a pensar”, recuerda Moreno.
Límites, control y gobernanza
Más allá del aula, los retos se trasladan también al plano institucional. La expansión de la IA no solo exige formar a docentes y alumnos, sino también establecer mecanismos de control que garanticen su uso adecuado. “Hay un riesgo de que estas herramientas se desplieguen de forma distribuida y poco controlada. Necesitamos gobernarlas para asegurarnos de que hacen lo que queremos que hagan”, advierte Gómez.
Esa necesidad de supervisión conecta con las advertencias de organismos como la Agencia Española de Protección de Datos, que insiste en evaluar riesgos y minimizar el uso de información personal, especialmente cuando se trata de menores. También con el marco europeo, que obliga a extremar las garantías en aquellos sistemas que afectan a decisiones educativas sensibles.
La fotografía que emerge no es la de una transformación inmediata, sino la de un cambio progresivo que obliga a revisar algunos de los pilares del sistema educativo. La formación del profesorado, el rediseño de tareas, la transparencia con las familias o la combinación equilibrada de entornos digitales y analógicos aparecen como condiciones necesarias para que la tecnología cumpla su promesa.
Porque, en última instancia, el reto no es tanto incorporar la inteligencia artificial como decidir qué papel queremos que juegue en la educación. Y esa es una conversación que ya no se puede aplazar.