Los alumnos se lanzan a usar la IA para estudiar: “Crece sin control, como pasó con las redes sociales”
Familias y expertos reclaman que se regule esta potente herramienta con riesgos para niños y adolescentes: “Muchos ni siquiera saben que la inteligencia artificial se equivoca”
Alberto, de 48 años, se quedó desconcertado hace unas semanas. Al abrir el ordenador de su hija Paula, de 12, alumna en un instituto público del centro de Valencia, vio que la niña le había pedido a la Inteligencia Artificial (IA) de Google que le hiciera un resumen de un cuento de Óscar Wilde que él sabía que tenía que leer para clase de Lengua. Y que, además, le pusiera los personajes principales, y preguntas como las que podrían aparecer en un examen de primero de la ESO. Alberto interrogó a su hija, y ella le aseguró que había leído el cuento hacía más de un mes, que tenía el examen al día siguiente, y que, como se había dejado el libro en el instituto, lo había buscado para repasar. “Acepté su explicación porque es muy buena estudiante, pero la verdad es que me quedé preocupado. Igual suena ingenuo, pero no lo había visto venir”, comenta.
Escenas como la que describe Alberto (cuyo nombre y el de su hija se han cambiado para proteger a la menor) se repiten en miles de hogares españoles, asegura María Sánchez, presidenta de Ceapa, la gran confederación de familias de la enseñanza pública, que aglutina a más de 12.000 asociaciones de madres y padres de alumnos (Ampas) de colegios e institutos. Empezando por su propia casa, dice. Los niños, a finales de la primaria, y sobre todo los adolescentes se han lanzado a usar en casa la IA para estudiar sin supervisión del profesorado ni de los progenitores, de una forma que en ocasiones consiste en una ayuda productiva y otras muchas en una externalización del esfuerzo intelectual. Un cambio ante el que las familias no saben cómo actuar. “Las madres y los padres nos transmiten preocupación, porque la mayoría no tienen, o mejor dicho, no tenemos, conocimientos suficientes para guiarles ni controlar su uso. Una parte ni siquiera sabe que la IA a veces se equivoca”, dice Sánchez. En respuesta a esa inquietud, su entidad acaba de terminar una guía, que presentará en diciembre, que trata de orientar a progenitores y chavales sobre los riesgos y oportunidades educativas de la nueva tecnología.
En los últimos meses se han publicado diversos sondeos, de calidad dispar y con diferencias en los rangos de edad, sobre cuánto se ha extendido el uso de la IA para estudiar entre los alumnos, que arrojan cifras que van de más del 40% a más del 80%. El dato oficial más reciente, la Encuesta sobre equipamiento y uso de tecnologías de la información y comunicación (TIC) en los hogares publicada el 20 de noviembre por el INE, señala que el 59% de la población de 16 a 24 años ya la utiliza con tal fin.
Directamente a los chavales
Uno de los principales problemas del uso escolar de la IA en niños y adolescentes, señala la presidenta de Ceapa, es que su rápida expansión no está respondiendo a un plan pensado por las administraciones educativas para mejorar el aprendizaje de los menores. Sino a una carrera de empresas privadas, “movidas por interés económico”, que no han ido a llamar a la puerta de los departamentos de enseñanza, los centros educativos, el profesorado o los progenitores, sino directamente al usuario final, los alumnos, que solo en España, entre primaria y secundaria, suman seis millones. “Nos está pasando lo mismo que con las redes sociales”, afirma Sánchez.
La cuestión genera preocupación y también “controversia” en Affac, la mayor entidad de familias catalanas ―que no forma parte de la estatal Ceapa y reúne a otras 2.400 Ampas―, admite su directora, Lidón Gasull. “En mi opinión no se trata de oponerse a la Inteligencia Artificial, pero sí de poner límites, regular, y ser muy cuidadosos, porque hablamos de una población especialmente vulnerable, y no tenemos información ni control sobre el impacto real que su uso puede tener en su proceso de aprendizaje. Pero en estos temas la administración siempre va muy por detrás de la realidad”, afirma. Hasta el pasado diciembre, el Gobierno no publicó un informe de recomendaciones sobre el uso de pantallas en centros educativos y redes sociales en menores, y de momento, las administraciones educativas españolas no tienen una regulación de la IA en materia educativa, aunque Galicia prepara una normativa (orientada sobre todo al uso en el aula) y el Ministerio de Educación prevé abordar la cuestión en el futuro junto al Ministerio de Transformación Digital.
Uno de los principales argumentos a favor del uso profesional de la IA es que permite liberar tiempo de tareas poco relevantes para dedicarlo a otras verdaderamente importantes. El mismo razonamiento parece aplicable, hasta cierto punto, a los estudiantes de educación superior. En primaria y secundaria, en cambio, las tareas están pensadas ―o deberían estarlo― para que los chavales adquieran conocimientos y habilidades durante el proceso de hacerlas, de modo que ese ahorro productivo predicado en general sobre la IA resulta mucho menos evidente.
Tarjetas, mapas y podcast que ayudan a estudiar
Dejando de lado lo que la nueva tecnología puede hacer por los docentes, que parece bastante ―desde ayudarles con las engorrosas tareas administrativas a asistirles en la detección temprana de alumnos con dificultades de aprendizaje―, que se enmarcan en el uso profesional de la IA, los expertos señalan que los chavales pueden usarla de dos formas muy distintas. Pidiéndole que haga los trabajos o lea los libros por ellos, lo cual acabará teniendo probablemente consecuencias cognitivas perniciosas, y también será negativo para sus calificaciones, ya que, a medida que la inteligencia artificial se extienda, lo previsible es que las formas de evaluación también cambien para volverse más presenciales. O, utilizándola con un enfoque activo, que suponga aplicar técnicas que la ciencia ha mostrado que funcionan a la hora de aprender.
Este segundo tipo de uso positivo es el que destaca Ben Gomes, director de Aprendizaje y Sostenibilidad de Google, en un despacho de la sede de Google DeepMind en Londres, al término de un foro sobre IA aplicado al aprendizaje organizado a mediados de noviembre al que la compañía estadounidense invitó a asistir a EL PAÍS. Por ejemplo: introducir en la aplicación de IA un documento, digamos un tema de Historia, y pedirle que cree flashcards (tarjetas con preguntas y repuestas al estilo del Trivial) o cuestionarios, dos de las formas clásicas de ejercitar la evocación (rescatar de la memoria lo aprendido), que, según han acreditado diversas investigaciones mejora el desempeño educativo. O también, pedirle que cree mapas mentales con dicho contenido, o incluso un podcast con el tema, para que el estudiante pueda escucharlo, por ejemplo, mientras camina o hace deporte. Aplicaciones como NotebookLM, ChatGPT o Le Chat permiten algunas o todas esas cosas.
Con o sin control parental
Las compañías que se están volcando en la IA educativa tienen entre sus prioridades, prosigue Gomes, el llamado “aprendizaje guiado”, aplicaciones (o utilidades dentro de las que ya existen) que adoptan “un estilo más socrático de interacción, con más elementos visuales, y preguntas al final, que no le da al estudiante la respuesta directamente, sino que le hace esforzarse un poco primero”. El directivo de Google asegura que su compañía ha decidido no implantar en su sistema de aprendizaje guiado (Gemini) algún tipo de control parental (o docente) que impida a la aplicación dar a los estudiantes la resolución del ejercicio, sino solo pistas y ejemplos de cómo hacerlo, para evitar que “se frustren” y dejen de usar la aplicación (y quizá, aunque eso no lo dijo, se marchen a la competencia).
La idea de la IA como mentor del alumnado sin pin parental tiene, sin embargo, un obstáculo de partida, advierte Dennis Mizne, director general de la Fundación Lemann, una entidad sin ánimo de lucro que ofrece apoyo educativo a más de 600.000 estudiantes brasileños al mes. “La cuestión es: ¿Quién ha dicho que los alumnos quieren un tutor o un profesor particular? Porque, en la práctica, el gran problema que vemos a la hora de aplicar muchas tecnologías educativas es el bajísimo compromiso de los estudiantes. La inmensa mayoría no busca constantemente formas de aprender más, ni tiene una motivación intrínseca alta. Los que sí la tienen son, de hecho, la excepción”.
Mizne, que se formó en las universidades de Sao Paulo, y ha pasó más tarde por las de Columbia y Yale, cree que el tipo de estudiantes muy motivados por aprender más están, ya de adultos, sobrerrepresentados en las empresas punteras que están desarrollando la IA educativa, y eso les lleva a pensar que el grueso de los estudiantes aprovecharán la oportunidad de tener un tutor personal. “Pero no es así. La mayoría no le pedirá al chatbot que les explique algo, o le ayude a entenderlo paso a paso. Lo que harán será intentar acelerar el proceso. Decirle: Haz mi tarea, escribe mi redacción, resuelve este ejercicio… Y eso no va a generar niños mejor educados y preparados”.
Resistencia de la escuela
Mizne, como las presidentas de las confederaciones de Ampas españolas, cree por ello que los gobiernos deberían regular las aplicaciones de IA educativas, y que estas deben desarrollarse de la mano de expertos en educación, incluidos directores de centros educativos, docentes, y también familias. Para reducir los riesgos que acompañan a estas aplicaciones, y también para conseguir que se adapte a la escuela, una institución que ha demostrado ser capaz de resistirse con éxito a la incorporación de otras tecnologías que en su día también parecieron llamadas a revolucionar la enseñanza, como los ordenadores personales, internet y los dispositivos móviles.
Las aplicaciones de la inteligencia artificial en educación plantean, por otro lado, un riesgo de naturaleza muy distinta, apunta la profesora de Ciencia Política de la Universidad de California, en San Diego, Agustina Paglayán, autora de Raised to Obey: The Rise and Spread of Mass Education (Criados para obedecer: el ascenso y la expansión de la educación de masas, publicado este año en EE UU, sin traducción al castellano). Paglayán muestra en su investigación que la creación de los sistemas educativos de masas, sobre todo a lo largo del siglo XIX, de los que los actuales son herederos directos, no respondió a “ideales democráticos, a la industrialización, ni a la meta de promover el conocimiento o erradicar la pobreza”, sino que se implantaron con “un objetivo político de formar ciudadanos obedientes como parte de un proyecto más amplio de formación y consolidación del Estado nacional”. Empezó haciéndolo Prusia en el siglo XVIII, y lo fueron siguiendo a lo largo de los siglos siguientes el resto de países europeos, americanos, asiáticos y africanos. Las herramientas con las que el Estado ha contado históricamente a la hora de adoctrinar ―en el sentido de enseñarle a alguien a aceptar un conjunto de creencias sin cuestionarlas, al margen del contenido de dichas ideas―, eran, sin embargo, mucho más limitadas que lo que ahora dibuja la IA, señala la profesora.
Actores poderosos
Los medios con los que han contado hasta ahora los gobiernos han sido básicamente los libros de texto y su capacidad para influir en la formación y contratación de los docentes. Pero estos siempre han retenido, en mayor o menor medida, cierto grado de autonomía, dice Paglayán, nunca han sido un calco de lo que el Estado quería que fueran. “Incluso en sistemas autoritarios, los maestros muchas veces han cuestionado los libros de texto, exponiendo a los alumnos a perspectivas diferentes. La IA les da, en cambio, una herramienta mucho más directa de llegar a los estudiantes, con un software que no solo expone al estudiante a determinado conjunto de creencias sino que, si el estudiante hace preguntas cuestionándolas, una y otra vez puede volver a reiterarlas y enfatizarlas”. El peligro potencial de reducción del pensamiento crítico, añade Paglayán, no procede ahora solo de los Estados, sino de otros actores poderosos, como los dueños de aplicaciones privadas de IA.
Los entrevistados para este artículo coinciden en que el alumnado debe recibir formación escolar sobre un uso adecuado y crítico de la inteligencia artificial. Se trata, apuntan, de una tecnología con gran capacidad tanto para potenciar el aprendizaje como para socavarlo, y si la escuela se limita a darle la espalda se abrirá otra brecha entre aquellos cuyos familias puedan guiarlos y los que no. En tanto se consigue o no aprobar una regulación basada en lo que más beneficie a niños y adolescentes, Rebecca Winthrop, directora del Centro de Educación Universal de la estadounidense Institución Brookings ―que, como Dennis Mizne y Agustina Paglayán, participó en el foro sobre la IA organizado por Google―, propone adoptar un “uso minimalista de la IA”. Un decálogo que apuesta por decantarse por soluciones no digitales en todos aquellos casos en que no haya pruebas claras de que es mejor recurrir a la tecnología. Por optar, en caso de que sí sean útiles, por las tecnologías menos invasivas. Y por tener en cuenta, a la hora de elegir entre varias opciones, aquellas que impliquen menos coste y menos impacto ambiental, un terreno en el que la IA tiene mucho margen de mejora.