_
_
_
_

Kenneth Cukier: “La próxima gran batalla de la era digital será la de la libertad política”

El periodista e investigador estadounidense cree que las instituciones deben de dotarse de herramientas que castiguen duramente las intromisiones en la privacidad de la tecnología

Kenneth Cukier
Kenneth Cukier, editor ejecutivo de 'The Economist' e investigador de la Universidad de Oxford, en Madrid tras dar una conferencia.Álvaro García
Manuel G. Pascual

Kenneth Cukier lleva décadas analizando cómo la tecnología está cambiando el mundo de los negocios y la propia sociedad. Editor ejecutivo del semanario británico The Economist e investigador sobre inteligencia artificial en la Universidad de Oxford, este estadounidense de 55 años se hizo un nombre en el mundillo en 2013 junto con su colega Viktor Mayer-Schönberger con la publicación del libro Big data: la revolución de los datos masivos. La obra fue incluida por The New York Times en su lista de bestsellers y traducida a 21 idiomas. En ella se describe cómo Amazon, Google o Walmart procesan la ingente cantidad de datos sobre la gente que inunda internet para identificar patrones de comportamiento y hacer correlaciones y predicciones de consumo.

A Cukier le interesan mucho también las aplicaciones de la inteligencia artificial (IA) en la educación, tema sobre el cual dio en Madrid una charla en el marco de las conferencias EnlightED, organizadas por la Fundación La Caixa y la Fundación Telefónica.

Pregunta. ¿Cómo cree que puede ayudar la IA al sector educativo?

Respuesta. Hay una oportunidad increíble de aplicar el aprendizaje automático y la IA en este ámbito. Por ejemplo, si los chicos usan tabletas o dispositivos conectados, puedes averiguar cuándo están leyendo y a qué hora lo hacen; puedes consultarles, interrumpirles con una prueba para mantenerles alerta. También puede ayudar al docente a ser mejor. Sé de un caso en el que un profesor estaba estudiando las tareas y se dio cuenta de que el 80% de la clase había respondido mal y que la respuesta era exactamente igual en un examen de matemáticas, lo que sugería que no eran los niños los que se equivocaban, sino que él necesitaba mejorar su estilo de enseñanza.

Aunque debemos adoptar la tecnología y los datos, no hay que hacerlo a expensas del elemento humano, de los profesores, de los compañeros de clase. Y si vamos a replantear la forma en que enseñamos en un entorno digital, debemos reconocer que estas funciones analógicas son realmente fundamentales. En última instancia, lo que necesitamos enseñar es resiliencia y agilidad mental, a superar los problemas y a hacer frente a la adversidad. Ese es el núcleo de lo que creo que van a ser las necesidades de mucha gente en el siglo XXI.

P. Usted propone que la introducción de tecnología en las aulas debería acompasarse con un aumento del profesorado, que haya un docente para cada cuatro estudiantes.

R. Todo se puede hacer, es una cuestión de prioridades. Hace 150 años no había ambulancias, y hace unos 60 o 70 años, de repente, si te ponías mal, llegaban dos personas en una furgoneta: un conductor y un médico. Hoy en día son tres. Hay que buscar fórmulas creativas para encontrar más docentes, por ejemplo recurriendo a profesionales con jubilación anticipada o empleados de otros sectores que puedan capacitarse con alguna formación como asistentes del profesor. Es clave que los niños tengan más interacción con los instructores y que el aprendizaje no se limite a una certificación basada en vomitar contenidos memorizados, sino en una exploración acompañada de la creatividad y la imaginación, de hechos y de aprendizaje.

P. Cada vez que se menciona la introducción de la IA en algún sector, en este caso la enseñanza, saltan muchas alertas. ¿Cree que tendemos a magnificar los efectos negativos de la tecnología o que hacemos bien temiéndola?

R. Creo que ambas visiones deben coexistir. Quienes se quejan de las grandes plataformas digitales también consultan sus teléfonos inteligentes cada mañana en sus primeros 15 segundos despiertos. La creciente introducción de tecnología en todas las esferas de la vida nos debe poner nerviosos. Pero es importante estarlo por las cosas correctas y no dejarse distraer por el resto. El hecho de que las tecnológicas recopilen datos de los usuarios no es el fin del mundo, podemos ignorar los anuncios segmentados. Sin embargo, que las redes sociales contribuyan a que las adolescentes estén más deprimidas es un problema grave que debería solucionarse. Idealmente, a iniciativa de las propias plataformas. Pero si la moralidad no funciona, necesitamos otras formas de abordarla. El regulador británico de las telecomunicaciones acaba de plantear la idea de analizar los algoritmos de las grandes plataformas tecnológicas para identificar qué es lo que privilegian y priorizan. La luz solar es el mejor desinfectante.

P. Todas las tecnologías y avances científicos tienen una parte buena y otra mala. ¿Qué opina de la IA?

R. Creo que, en última instancia, poco a poco dejaremos de hablar de IA, de la misma manera que no hablamos ya de la informática. Cuando uno va a un hospital, no dice que ha tenido una atención médica computarizada, por mucho que haya ordenadores por todas partes. Ahora estamos en un periodo de adaptación. Lo que hace a la IA un poco espeluznante es que perdemos algo de explicabilidad y de causalidad. La versión moderna de la IA, el aprendizaje automático (o machine learning), no sabe que el color rojo del semáforo significa parar porque nosotros se lo hayamos dicho, sino porque ha analizado los datos y ha llegado a esa conclusión.

P. Hace diez años que Viktor Mayer-Schönberger y usted publicaron el libro Big Data, uno de los primeros que advirtieron sobre el gran impacto que tendría en la sociedad la disponibilidad masiva de datos. ¿Cómo ha envejecido?

R. Algunas cosas las acertamos; en otras, nos equivocamos terriblemente. Por ejemplo, avanzamos que habría auditores de algoritmos. En ese momento sonaba a ciencia ficción, pero ya existen. En cambio, creíamos que Google Flu Trends, una herramienta que analizaba las búsquedas para predecir tendencias, sería capaz de anticipar brotes de gripe, pero no vio venir la Covid. También nos equivocamos al pensar que los sistemas se diseñarían para buscar el equilibrio social. Por ejemplo, la gente no recibió con buenos ojos las aplicaciones de rastreo social, que podían haber sido de mucha ayuda durante la pandemia. Cuando entramos y salimos de un país damos muchísimos datos personales; creo que deberíamos estar más dispuestos a ceder datos personales al Gobierno en caso de necesidad, acompañándolo de normativas que sean tan duras que nadie se atreva a abusar de la privacidad de los ciudadanos. Otras cosas que se nos escaparon fueron el auge del autoritarismo digital de China y la velocidad a la que han avanzado las tecnologías de reconocimiento facial y de voz. El hecho de que la empresa estadounidense Clearview haya accedido a miles de millones de fotografías de usuarios de las redes sociales y sea capaz de identificarlos es intelectualmente estimulante. Cuando escribí el libro ni se me ocurrió que eso fuera posible.

P. Clearview ha sido multada en países como Italia o Francia por usar fotos de usuarios sin su consentimiento. ¿No cree también que la gente ha desarrollado una mayor conciencia sobre la privacidad en el entorno digital?

R. Mi opinión sobre la privacidad está cambiando. Hace diez años pensaba que el perfilado de usuarios para servirles anuncios segmentados no eran el fin del mundo. Creía que recoger datos era bueno en sí mismo porque eran pruebas empíricas que nos podían ayudar a construir un mundo mejor. Presuponía que predominaría la buena fe, pero no ha sido así. Si las libertades y los derechos fundamentales no son respetados, entonces el marco en el que se recopilan y usan datos personales tiene que ser cuestionado y restringido. Creo que el Reglamento General de Protección de Datos (RGPD) no es la respuesta adecuada, pero cada vez que entro en una web por primera vez deniego que se recojan mis cookies, algo que estableció ese reglamento. Estamos viendo lo que sucede en China, pero debemos saber que esas herramientas de vigilancia ciudadana para la seguridad pública llegarán también a Occidente, simplemente porque la tecnología está ahí y es tentador usarla. Me temo que si no nos dotamos de reglas duras para preservar la libertad y dignidad humana tendremos problemas. La próxima gran batalla de la era digital será sobre la libertad política

P. En España, la policía está ultimando la implantación de una herramienta automática de reconocimiento facial. ¿Qué opina sobre esta tecnología y su uso policial?

R. No estoy en contra de ello, pero quiero que en este caso haya limitaciones sobre el poder policial. Que se use esa tecnología, pero de forma adecuada. Y quiero que se penalice duramente los usos inapropiados. No quiero que un agente pare y registre a un ciudadano porque este pertenezca a alguna minoría en vez de porque represente una amenaza para la sociedad.

P. ¿Cree que la carrera por la IA entre EE UU y China la tiene ya ganada el gigante asiático?

R. La carrera sigue, nada está decidido. Ahora mismo, Occidente tiene una cierta ventaja en todas las tecnologías. Puede que no dure mucho, pero ahí está. Lo siguiente será el uso de IA en el armamento y en la logística. Aquí también, la carrera está abierta, y va a ser muy dura. Sobre este tema, opino lo mismo que ha dicho Henry Kissinger: quienes creen en la democracia liberal deberían investigar el armamento inteligente para no perder la ventaja de esta tecnología, pero al mismo tiempo deberían iniciar conversaciones para establecer acuerdos de control de estas armas.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Manuel G. Pascual
Es redactor de la sección de Tecnología. Sigue la actualidad de las grandes tecnológicas y las repercusiones de la era digital en la privacidad de los ciudadanos. Antes de incorporarse a EL PAÍS trabajó en Cinco Días y Retina.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_