_
_
_
_
Inteligencia Artificial
Opinión
Texto en el que el autor aboga por ideas y saca conclusiones basadas en su interpretación de hechos y datos

Vigilancia automática de exámenes: un gran hermano torpe y peligroso

Hay evidencias crecientes de que estas tecnologías en boga pueden causar serios perjuicios y de que conllevan problemas técnicos, jurídicos y éticos

Estudiantes en la biblioteca Maria Zambrano, de la Universidad Complutense de Madrid, el pasado diciembre.
Estudiantes en la biblioteca Maria Zambrano, de la Universidad Complutense de Madrid, el pasado diciembre.Olmo Calvo
José L. Aznarte Mellado Juan Manuel Lacruz López

Como muchos otros ámbitos, el de los exámenes en la era cóvid se presta al solucionismo tecnológico: que sea la Inteligencia Artificial la que vigile los exámenes. Pero… ¿son las tecnologías de vigilancia automática (TVA) la solución a este problema? En los últimos años, estas tecnologías parecen estar en boga. Sin embargo, hay evidencias crecientes de que pueden causar serios perjuicios y de que conllevan problemas técnicos, jurídicos y éticos.

Tanto es así que la Unión Europea está estudiando una moratoria a todos los usos del reconocimiento facial en dominios sensibles, incluyendo vigilancia, policía, educación y empleo. Bastantes ciudades de Estados Unidos, entre ellas San Francisco, Berkeley y Oakland, han legislado ya prohibiciones para evitar que instituciones gubernamentales hagan uso de ello. Por último, empresas como IBM, Amazon o Microsoft están abandonando sus planes en estas tecnologías.

En España, la UNED, pionera en la enseñanza a distancia, se lo preguntó: ¿podemos delegar exclusivamente en las TVA la responsabilidad de garantizar la limpieza en los exámenes en línea? La respuesta fue tratar de replicar los exámenes presenciales mediante el desarrollo del Aula Virtual de Examen, herramienta con la que se han realizado más de medio millón de exámenes, y que no implementa vigilancia automática. Para llegar a esta solución, se identificaron ciertos asuntos potencialmente problemáticos de las TVA:

A) No existe un marco regulatorio claro: la mayor parte de los países carecen de legislación específica, y ese es nuestro caso. Por ejemplo, en la LOPD y el RGPD no hay un apartado específico sobre tecnologías de reconocimiento facial y, lo que es peor: no hay jurisprudencia. Sí hay, sin embargo, unas recomendaciones severas de la AEPD, que, entre otras cosas, recomiendan evitar el uso de tecnologías biométricas.

Los bancos amplios de preguntas que se seleccionan aleatoriamente son una herramienta efectiva contra el plagio.

B) El empleo de TVA puede suponer una violación de los principios de necesidad y proporcionalidad. Así, es preciso determinar que no hay otras medidas menos gravosas que puedan garantizar el mismo resultado o uno equivalente. Y las hay: un diseño adecuado de los exámenes, por ejemplo, con bancos amplios de preguntas que se seleccionan aleatoriamente, es una herramienta efectiva contra el plagio.

C) Las TVA pueden violar el derecho a la privacidad. Evidentemente, la vigilancia durante un examen es lícita, pero el hecho de que una institución educativa se dote de la capacidad de reconocer automáticamente al alumnado plantea problemas de privacidad, como la imposibilidad de garantizar que no pueda ser vigilado en otros momentos (en su vida en el campus, por ejemplo).

D) Las TVA son naturalmente imprecisas y el software falible. Por ejemplo, muchos estudios han mostrado cómo los algoritmos entrenados con datos sesgados en cuanto a raza tienen dificultades para identificar a personas racializadas, especialmente mujeres. ¿Queremos cargar a colectivos ya desfavorecidos con un nuevo lastre, habiendo alternativas?

E) Las TVA pueden dar lugar a sesgos de automatización: está demostrado que quienes hacen uso de estas tecnologías tienden a asumir ciegamente que son infalibles, y esto puede dar lugar a decisiones muy equivocadas. ¿Qué pasa cuando las TVA se equivocan? ¿Podemos asumir el calvario burocrático que supone una decisión automática errónea dada por buena porque «la máquina lo hadicho»?

F) Las TVA pueden producir discriminaciones y vulneraciones del principio de igualdad. Personas con poca formación informática, mayores, con problemas de conexión, con dispositivos obsoletos, con dificultades derivadas de la pandemia: ¿acceden todas por igual?

G) Las TVA pueden generar discriminación por motivos de diversidad funcional. Aún si cumplen con la legislación sobre accesibilidad, existen interrogantes sobre si se atienden los derechos de las personas con y sin discapacidad. Por ejemplo, las personas con discapacidad visual pueden tener problemas para tomar selfies, algo esencial para el uso de estas tecnologías.

Nada impide que alguien tenga más de un teclado y monitor conectados a su ordenador

Por último, las TVA, pese a sus promesas, ni siquiera pueden garantizar la autoría ni la ausencia de utilización de medios fraudulentos en la realización de las pruebas online. Como nos han enseñado los hackers, es muy difícil concebir un sistema informático totalmente seguro. En este caso, nada impide que alguien tenga más de un teclado y monitor conectados a su ordenador, por ejemplo, o que acceda mediante un sistema operativo virtual (ejecutado en una ventana, dejando libertad total para usar un navegador en otra, por ejemplo).

Son solo dos ejemplos de los muchos, muy imaginativos, que la comunidad viene contraponiendo a las TVA últimamente. Y demuestran que estas tecnologías no suponen la limpieza en la realización de los exámenes: no garantizan la imposibilidad de intervención de terceras personas o la no utilización de materiales no permitidos.En conclusión, al plantear soluciones no presenciales para los exámenes, cualquier institución educativa debería regirse por el principio de precaución. Automatizar la supervisión de los exámenes mediante tecnologías de vigilancia automática acarrea problemas jurídicos, éticos y técnicos que son, hoy por hoy, insoslayables.

José L. Aznarte Mellado es profesor del departamento de Inteligencia Artificial de la UNED y vicerrector adjunto de gestión inteligente de datos. Juan Manuel Lacruz López es profesor del departamento de Derecho Penal y Criminología de la UNED y vicerrector de grado y posgrado.

Siga EL PAÍS EDUCACIÓN en Twitter o Facebook

Apúntese a la Newsletter de Educación de EL PAÍS

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_