Ir al contenido

La inteligencia artificial pone a prueba a la escuela en el nuevo curso escolar

La irrupción de la IA en la educación obliga a rediseñar tareas, fijar reglas de uso y reforzar la formación del profesorado

La escuela ha entrado en la era de la IA sin un manual de instrucciones. En apenas dos cursos, las herramientas de inteligencia artificial generativa como ChatGPT o Gemini han pasado de ser una curiosidad a formar parte de la rutina cotidiana de docentes y alumnos, y la discusión ya no es si se usarán, sino más bien cómo. El marco regulatorio europeo, en proceso de implementación, empieza a fijar límites —la Ley de Inteligencia Artificial de la UE clasifica como de “alto riesgo” los sistemas de IA que deciden el acceso a centros, evalúan aprendizajes o vigilan exámenes—, mientras que organismos como la Unesco insisten en que la tecnología debe usarse solo cuando mejora los resultados de aprendizaje y con salvaguardas claras para unos y otros.

En España, el Ministerio de Educación ha actualizado el marco de referencia de la competencia digital docente y ha publicado una guía específica para el uso de IA generativa en el aula que pone el foco en la formación del profesorado, la transparencia y la protección de datos. A la vez, el Congreso tramita una ley para la protección de los menores en entornos digitales que, entre otras medidas, faculta a los centros para regular el uso de móviles y refuerza la educación en hábitos saludables de pantalla. No es solo un debate técnico: es de salud pública, equidad y calidad educativa.

Nuevas posibilidades en el aula

De acuerdo con Maureen Heymans, vicepresidenta de Google para Ingeniería del Aprendizaje, las posibilidades pedagógicas que abre la IA pretenden hacer que este sea “más atractivo, efectivo y personal, permitiendo que los alumnos usen la IA como un medio para explorar su curiosidad, en vez de como un fin exclusivo para ejecutar tareas”. Un propósito que se aprecia en Gemini, el sistema de IA generativa de Google, cuyo modo de “aprendizaje guiado” (Guided Learning) cambia, al ser activado por el usuario, la naturaleza de la interacción con el alumno: en lugar de limitarse a dar una respuesta cerrada, formula preguntas de seguimiento, pide al estudiante que explique cómo ha llegado a un resultado, sugiere pasos intermedios y plantea problemas similares para comprobar si lo aprendido se transfiere a otros contextos.

“Con este modo, la intención es distinta: no se busca solo una respuesta, sino un aprendizaje”, explica a su vez Marc Sanz, director de Educación en Google para la península ibérica, Oriente Medio y África. La intención es educar a los alumnos para que estos pasen de usar la IA como una herramienta que les proporciona respuestas rápidas a otra que facilita un nivel de comprensión más profundo. Y siempre con una idea de fondo: que el uso de la IA no sea indiscriminado, sino definido por cada docente en función de sus objetivos pedagógicos. Por otro lado, a la hora de preparar exámenes, Gemini tiene la capacidad de crear quizzes a partir de los apuntes de los estudiantes, ofreciendo comentarios, explicaciones e incluso ayudas visuales integradas.

La progresiva introducción de estas herramientas según la edad es otro aspecto clave. En las etapas de Infantil y Primaria, señala Wilcowski, “debe hacerse siempre en colaboración con un adulto”, ya que los alumnos pequeños aún no disponen de la madurez crítica necesaria para valorar las respuestas. Y solo cuando han adquirido destrezas básicas en lectura, escritura o matemáticas (a partir de los 13 años, según sus recomendaciones), tiene sentido que la IA se convierta en un apoyo autónomo para ampliar o reforzar aprendizajes.

Ventajas y precauciones

La experiencia de Gemini ilustra, además, otra oportunidad más inmediata: la de recuperar tiempo para otras tareas más significativas y relevantes. Así, un estudio reciente del Education Endowment Foundation en algunos centros ingleses ha mostrado que los profesores de Secundaria que usan la IA generativa con una guía de buenas prácticas reducen en un 31% el tiempo dedicado a la planificación. No se trata, por lo tanto, de sustituir al docente, sino de liberar horas para una interacción educativa más relevante y fructífera.

Un ahorro de tiempo que, por otro lado, se combina con una de sus mayores fortalezas, ya indicada en numerosas ocasiones: la personalización de la enseñanza, ya que la IA permite adaptar los materiales educativos al nivel y ritmo de cada estudiante, así como a los distintos estilos e itinerarios de aprendizaje, “dando un feeedback inmediato y detallado que ayuda al alumno a corregir errores al momento; detecta patrones de comportamiento y puede crear una gran variedad de materiales dinámicos e interactivos”, explica Juan Luis Moreno, director ejecutivo en The Valley.

Las ventajas entusiasman a un gran número de usuarios, pero lo cierto es que también requieren la toma de precauciones. “La IA puede amplificar desigualdades si no se usa de forma adecuada. No todos los estudiantes parten de un mismo punto; un alumno con dificultades de aprendizaje como dislexia o TDAH [trastorno por déficit de atención e hiperactividad] podría recibir recomendaciones que no se ajustan a sus necesidades, mientras que otro sin esas barreras avanzaría más rápido (...). El docente interpreta y corrige, y el sistema debe ofrecer alternativas para distintos estilos y ritmos”, advierte Moreno. Para él, la personalización es un medio, no un fin: si no hay recursos para quienes parten con menos, la brecha digital terminará por agrandarse.

Tampoco conviene olvidar que la dimensión más humana continúa siendo insustituible: “El verdadero valor sigue estando en la capacidad del docente para inspirar, motivar y enseñar a pensar”, recuerda Moreno. Por eso insiste en que la IA debe concebirse como un aliado estratégico y no como un atajo tecnológico. Una idea en la que redunda Julia Wilcowski, directora de Pedagogía en Google: “Sabemos que aprender es, en esencia, un proceso humano. No buscamos reemplazar esa conexión, pero creemos que, cuando el mejor recurso humano no está disponible, la IA puede ayudar a llenar algunas lagunas”.

Ese planteamiento también se traduce en un papel activo para los docentes a la hora de fijar pautas claras de uso. Wilcowski apunta que algunos profesores ya marcan en qué fases de un trabajo está permitido recurrir a la IA —por ejemplo, en la generación de ideas iniciales o en la revisión de un borrador— y en cuáles no: “Son los docentes quienes deben establecer esas pautas, porque la innovación no consiste en delegar en la máquina, sino en rediseñar las tareas para que la tecnología acompañe el proceso de aprendizaje”.

Al mismo tiempo, la expansión de estas herramientas exige redefinir qué significa aprender en la era de la hiperconectividad: “En cierto modo, todos somos analfabetos digitales… la tecnología se va incorporando a nuestras vidas al mismo ritmo que evoluciona, y aprendemos a usarla sobre la marcha. Así ocurrió con la irrupción de las redes sociales, que nadie nos enseñó a gestionar, y lo mismo ocurre hoy con la IA”, reflexiona Jordi Cirach, experto en bienestar digital. Una condición que obliga de forma ineludible a formar a los alumnos en un uso crítico y consciente de la tecnología.

Desafíos en el uso educativo de la IA

Uno de los riesgos que Cirach subraya es la de que se produzca una pérdida de atención, memoria y descanso por culpa de un exceso de tiempo frente a las pantallas. Frente a ello, su receta es sencilla y poderosa: “Establecer límites claros en el uso de la tecnología, incorporar rutinas que ayuden a los estudiantes a gestionar mejor el tiempo de pantallas y dedicar momentos de clase a actividades analógicas que estimulen la concentración y la creatividad, como escribir a mano, redactar resúmenes, elaborar mapas conceptuales (...). Además, es necesario enseñarles a practicar una evaluación reflexiva para que cuestionen lo que obtienen en internet o mediante IA”. Y un aspecto que conviene tener siempre presente: la innovación también consiste en saber cuándo no encender el dispositivo.

Más allá del aula, los retos estructurales se acumulan, y la evaluación es uno de los más delicados: al definir la Ley de IA de la Unión Europea como de “alto riesgo” los sistemas que miden aprendizajes o vigilan exámenes, esto obligará a reforzar la supervisión humana y la trazabilidad de los procesos. Preocupa, además, la integridad académica, ya que los detectores de texto generado por IA fallan con frecuencia y pueden discriminar a ciertos estudiantes: la respuesta, como se ha afirmado ya, podría estar en repensar las tareas de forma que se dé más peso al proceso, y enseñar a citar y usar estas herramientas con unos límites éticos claros.

La privacidad y la protección de menores son otra línea roja. La Agencia Española de Protección de Datos insiste en evaluar riesgos y minimizar datos, especialmente cuando se trata de alumnos. Y la nueva ley en tramitación busca precisamente reforzar estos estándares con medidas específicas para familias y centros.

La fotografía que emerge de esta situación no es, por lo tanto, la de una revolución instantánea, sino más bien de una transformación sostenida que debe apoyarse en varias líneas maestras como la formación continua del profesorado, nuevas tareas, la transparencia con las familias, unas reglas explícitas de uso y una combinación deliberada de los entornos analógico y digital. Con esas condiciones, la IA puede cumplir su promesa: ahorrar tiempo rutinario, abrir puertas a la inclusión y devolver al docente al centro de la escena. “Si conseguimos eso, estaremos ante una verdadera revolución educativa”, concluye Moreno.

Sobre la firma

Más información

Archivado En