Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

“Si no preparamos a los alumnos para el mundo digital, les fallamos”

La inteligencia artificial y el aprendizaje automático dan forma a la educación del presente y del futuro, pero su implantación tiene todavía luces y sombras

¿Es posible darle la espalda a la innovación, en pleno siglo XXI? Los avances tecnológicos se producen a veces con una velocidad vertiginosa, y afectan a todos los aspectos de nuestra vida cotidiana. Con frecuencia escuchamos que la innovación es clave para la supervivencia, y como educadores resulta fundamental preparar adecuadamente a los profesionales del futuro. Sin embargo, los cambios no llegan con la suficiente celeridad, y la forma en que se usa e interpreta la masiva cantidad de información a nuestro alcance plantea cuestiones no solo educativas sino éticas.

Sobre el futuro de la educación y el uso de la tecnología hablamos con Geoff Stead, CPO (Chief Product Officer) de la plataforma de aprendizaje de idiomas Babbel; Rose Luckin, profesora de University College London y experta en Inteligencia Artificial (AI); y Usha Goswami, profesora de Desarrollo Cognitivo en la Universidad de Cambridge, en el marco de la jornada Anticipando el futuro del aprendizaje organizada ayer en la localidad inglesa de la mano de Cambridge Assessment.

¿El uso de tecnología en las clases se ha convertido en una obligación?

Geoff Stead. Parte de la educación se centra en preparar a los alumnos para el futuro: el trabajo del futuro, el mundo futuro, el entorno del futuro... Si, como educadores, no los preparamos para la tecnología en ese futuro, entonces fracasamos, porque ese es el mundo al que se están incorporando. ¿Debería de centrarse la educación en prepararlos para un futuro potenciado por la tecnología? Por supuesto. ¿Significa eso que todas las asignaturas deben incluirla? No necesariamente; no todas deben tener una dimensión tecnológica. Pero si no los preparamos para que jueguen un papel significativo en este mundo digital del que no se puede escapar, les fallamos.

Rose Luckin. Estoy de acuerdo. No es necesario que esté presente en cada asignatura, pero es fundamental preparar a los alumnos para un mundo impulsado principalmente por la tecnología. Puede que el profesor no sea el que más sepa de tecnología en ese aula, pero sí es el que más sabe acerca de su asignatura y sobre cómo aprenden los estudiantes.

¿No hay más tecnología por un problema de presupuesto?

RL. Más que un problema presupuestario, se trata de conseguir que los educadores desarrollen la capacidad necesaria para incorporar la tecnología de manera efectiva en sus clases. Todavía hay muchos que no saben cómo usarla para complementar sus enseñanzas y el aprendizaje de sus estudiantes, y lo veo por todas partes.

Poco a poco, se va abriendo camino en las aulas, pero ¿quizá con demasiada lentitud?

RL. Esto es porque, a veces, la tecnología no está muy bien diseñada. A veces vienen los emprendedores queriendo mostrarnos primero la tecnología, cuando ha de ser al revés: dime antes qué necesidad educativa quieres solucionar y luego ya miraremos la tecnología. Paradójicamente, muchos de los desarrolladores de tecnología educativa (especialmente en inteligencia artificial), no entienden nada de educación.

GS. Totalmente cierto. Y también veo muchas soluciones tecnológicas que provienen de la teoría educativa, pero que tienen poca calidad, una mala experiencia de usuario, un mal diseño visual o que son difíciles de usar. Creo que tenemos que juntar estas dos disciplinas para conseguir algo más enriquecedor.

Para funcionar, la tecnología digital necesita ser atractiva a los ojos de los usuarios, sean estos niños o adultos...

GS. Especialmente en un entorno de formación laboral, es super relevante. Cada vez más, las compañías están ofreciendo no clases de formación, sino acceso digital a recursos. Pero los empleados están ocupados, y tienen en su cabeza cien cosas más, ya sean laborales o de su vida social. Encontrar espacio mental para aprovecharse de esa oportunidad de formación corporativa dependerá de que esta sea tan persuasiva o tan interesante como el resto de las cosas que tienen en la cabeza en ese momento. Hay toda una retahíla de muy malos ejemplos de formación corporativa digital. En el pasado, trabajé en una empresa que se dedicaba a desarrollar apps de formación, y realmente hicimos un esfuerzo por crear un buen entorno de usuario, incorporar problemas estimulantes, conectarles digitalmente con colegas en otros campus para que tuvieran esa sensación de pertenencia a un grupo... Si el contenido no es significativo, es mucho más difícil que tenga éxito o que sea valioso para el estudiante.

¿Por qué son los entornos educativos reglados tan reacios a probar estas innovaciones tecnológicas?

Usha Goswami. Porque necesitas la suficiente evidencia. Es lento pero importante, porque puedes acabar desviando recursos para una innovación que no es efectiva. En mi opinión, hay que acumular la suficiente evidencia científica.

GS. Lo complicado es que el mundo evoluciona muy rápidamente, al igual que las herramientas [de las que disponemos]. Si piensas en los cambios que se implementaron antes en la educación, verás que contaban con la suficiente evidencia, pero que podían pasar 10 años hasta que finalmente el profesor adoptaba algo... Si ese es realmente tu modelo, has perdido la carrera, porque para entonces pueden haber surgido otras cuatro opciones tecnológicas y los demás están haciendo ya otra cosa.

RL. Hay que mejorar la calidad de la evidencia acumulada, pero de una manera rápida. Es necesario involucrar a la dirección de cada institución, porque puede que tengan que hacer cambios a ese nivel institucional. Y también se trata de ayudar a los profesores. Un profesor puede ocuparse de probar cierto tipo de tecnología, hacer un estudio piloto ligero y compartir las conclusiones del mismo con sus colegas.

Usha Goswami, Geoff Stead y Rose Luckin durante su entrevista con EL PAÍS.
Usha Goswami, Geoff Stead y Rose Luckin durante su entrevista con EL PAÍS.

¿Existen ya ejemplos de inteligencia artificial o aprendizaje automático en la educación?

GS. Podemos encontrar ejemplos en muchos lugares. Muchas universidades, por ejemplo, licencian sistemas que permiten saber si un estudiante va a abandonar sus estudios, gracias a que analizan todas las interacciones que ha tenido el estudiante con la universidad en múltiples lugares: los libros de la biblioteca, la cafetería, las notas... Y buscan patrones que permitan predecir que esto va a ocurrir antes de que suceda. También cualquier sistema que analiza tu progreso a lo largo del contenido y que te sugiere qué hacer a continuación; y muchas correcciones de exámenes usan algún tipo de IA para detectar patrones inusuales de notas. La IA analiza miles de exámenes en busca de posibles casos de plagio...

¿El uso de la tecnología es un poco caótico?

GS. Yo tengo una concepción algo desordenada de la tecnología. Son fragmentos separados que no conectan entre sí: la app que funciona en un teléfono puede no valer en otro, pero ese es el mundo en el que vivimos. Lo que me pone nervioso es la idea de que haya un solo sistema tecnológico que lo haga todo, que decida dónde deberíamos vivir, lo que comemos o lo que hacemos... No me gusta porque es peligroso. Pero ese sistema fragmentado es el de la realidad en que vivimos.

Me aterra ese mundo donde todo viene determinado por un único proveedor, porque no creo que quienes estén detrás de este sistema entienden los matices de esta escuela o de aquella, o de estos estudiantes o aquellos. Para mí, lo que funciona es un montón de fragmentos rotos. Si en un aula probamos una app y no funciona, no pasa nada; se prueba otra. No hay consecuencias graves. Pero si te comprometes con un megasistema que controla todo en la escuela, te puedes pasar dos años hasta que se decide con cuál conviene quedarse, y luego puede incluso que debas comprometerte con ese sistema durante cinco años, aunque te esté haciendo un daño terrible.

¿Hacia dónde debería encaminarse la investigación?

GS. Podría empezar ofreciendo una respuesta muy concreta. En Babbel nos centramos en el aprendizaje del idioma con adultos, es un campo muy específico. Gran parte de nuestra investigación (a través de la inteligencia artificial y del aprendizaje automático) se centra en la lingüística, en el procesamiento natural del lenguaje, cómo grabamos y comprendemos lo que alguien dice o teclea, cómo seguimos la pista a errores comunes en diferentes nacionalidades o grupos con una determinada lengua materna, su progreso y lo que recomendamos a continuación... Se trata de ofrecer un camino personalizado para cada estudiante y el tipo de comentarios que necesitas para ayudarte a progresar.

UG. Gran parte de las investigaciones que han llevado a estas innovaciones tecnológicas tienen precisamente que ver con cómo el cerebro procesa la señal del lenguaje.

RL. Y la investigación tiene que ser interdisciplinaria. El problema ahora es que parte de ella viene de académicos que no entienden realmente de tecnología. Y luego tienes a los especialistas en tecnología que no entienden de educación. Y ninguna de las dos maneras funciona [por separado].

Yo siempre he estado interesada en la IA dentro de la educación. Diseñábamos los sistemas en la universidad, y los probábamos sin que pasara nada relevante... Hasta que de repente se convirtió en algo interesante comercialmente, y provocó una investigación académica seria por parte de educadores y expertos en tecnología. Hay que aceptar que gran parte de todo lo que ya sucede en la vida real está impulsado por organizaciones comerciales. Y ellos son actores relevantes que no se limitan a proveer datos, sino a trabajar de una manera conjunta que puede ayudar a impulsar la educación y la investigación.

No solo importa el uso de la IA, sino también que se haga un uso ético de ella, ¿verdad?

RL. Correcto. Si nos fijamos en los datos recolectados, cabe preguntarse quién decidió acumular esos datos que vamos a procesar para obtener información; cómo se procesa y se almacena. ¿Está segura? ¿Quién tiene acceso a ella? Mucha de la publicidad negativa que tiene la IA tiene de hecho que ver con la forma en que esos datos se comparten, y si se hace de una manera poco escrupulosa. Pero también con que las primeras decisiones que se tomaron para acumular esos datos fueran en primer lugar éticas. Cada vez que yo hago algo, tengo que pasar por un comité de ética. Hay que comprobarlo desde el principio. Y si miramos al procesamiento de esos datos, si probamos un algoritmo hay que asegurarse de que no es partidista de ninguna manera. Lo más importante con el aprendizaje automático es el imperativo que subyace al aprendizaje: por qué estamos haciendo esto; con qué objetivo lo hacemos. Hay tantas áreas donde tantas cosas pueden ir terriblemente mal...

GS. No le estamos diciendo al ordenador qué hacer; le estamos dando un montón de información y le estamos pidiendo que aprenda y que encuentre patrones. Si, por ejemplo, estamos aprendiendo sobre reconocimiento facial, le estamos intentando enseñar al ordenador a que reconozca caras y gente, y describir las cosas que ve. Necesitas millones de fotografías existentes para aprender lo que son. Pero ¿de dónde vienen estas fotos? La fuente más grande de fotos en Internet es estadounidense y predominantemente masculina y blanca... Por lo que todo lo que el ordenador aprenda será predominantemente norteamericano, masculino y blanco. Cada una de las decisiones que se toman estarán ligeramente condicionadas, y no por ninguna razón negativa en particular. Y esa es una de las complejidades de la ética.

¿Puede la tecnología hacer que la gente pierda sus trabajos?

GS. Sí. El mundo cambia a gran velocidad, lo que hace que algunos trabajos desaparezcan a la vez que surgen otros nuevos. Probablemente las personas con una educación menor recibirán un golpe más duro, porque serán quienes encuentren más difícil adaptarse a los nuevos trabajos. Pero no todo está tan claro. Aún necesitarás que venga un fontanero a arreglarte una avería; pero puede que entonces lo haga con algún tipo de equipamiento que le ayude a diagnosticar el problema más rápidamente, o que necesites un fontanero en vez de dos...

Se adhiere a los criterios de The Trust Project Más información >

Más información