El peso de la ética en las nuevas tecnologías
¿Cómo evitar que en un futuro las máquinas se conviertan en enemigas, y no en aliadas, de los seres humanos? La solución pasa por definir algoritmos y estrategias que protejan los derechos elementales, coinciden varios expertos del evento Retina SQL en colaboración con Banco Santander
Desde tiempos inmemoriales, los algoritmos afectan a los actos de nuestra vida cotidiana. Aunque los solemos vincular con la informática y la tecnología, en realidad los algoritmos nos acompañan desde hace miles de años. Al fin y al cabo, se trata de una serie de instrucciones precisas que deben llevarse a cabo para resolver un problema. Pero la digitalización les ha conferido un nuevo barniz. La suma de otras tecnologías como la inteligencia artificial (IA) y el big data ha hecho que estos algoritmos hayan revolucionado nuestra manera de informarnos, de comportarnos y de comunicarnos con los demás seres humanos.
Todas nuestras esferas de la vida están de alguna manera controladas por algoritmos computacionales: desde ver la televisión, hablar por el móvil, navegar por Internet, acceder a nuestra cuenta del banco o comprar unas entradas para ir al teatro. La tecnología ya controla nuestro presente, pero definirá aún más nuestro futuro. Por eso es importante ser conscientes de que las decisiones que tomemos hoy definirán el mundo del mañana. Y eso pasa por establecer bien los límites de hasta dónde se puede y no se puede llegar, para que las máquinas no acaben por dominar el mundo.
En sí misma, la tecnología no es buena ni mala. “Es la formulación matemática de las presuposiciones, de los prejuicios y de las perspectivas que tenemos de nuestra sociedad. Es simplemente un reflejo de nuestro comportamiento humano con todos sus defectos y virtudes”, sostiene la experta en Ética Lorena Jaume-Palasí. De ahí que, para evitar sobresaltos en el futuro, es imprescindible crear procesos muy claros en los que se defina desde el principio lo que esta tecnología puede y no puede hacer.
La situación actual recuerda de alguna manera, según Jaume-Palasí, a la época en la que se inventó el automóvil. “La sociedad no tenía reglas de tráfico ni la capacidad de cómo se podía convivir con un coche. Había incluso fallos judiciales en los que se decía que los coches no eran seres morales pero que sí se les podía entender como un animal díscolo”, apunta la fundadora de The Ethical Tech Society. Hay que ser consciente, eso sí, de que la tecnología es la infraestructura del futuro. “Y cuando creamos infraestructuras, lo que hacemos es modelar sociedades. Es un elemento de poder porque es una forma muy sutil de organizar y con ello de decidir quién tiene acceso a determinadas cosas”, añade.
Máquinas con humanidad
Pese a todo, no hay que olvidar que somos los seres humanos quienes nos encargamos de automatizar los procesos y de programar los algoritmos. Al hacerlo, proyectamos en las máquinas más humanidad de la que realmente tienen. Eso es fruto, cuenta la investigadora, del pensamiento humanista y europeo de la Ilustración. Una parte de aquellos pensadores sostenía que se podía delegar racionalidad a las máquinas, que se podía optimizar la inteligencia humana. Una idea que perdura hoy.
Al fin y al cabo, la IA es fruto de este tipo de aproximación cartesiana al mundo, en la que todo se categoriza y se clasifica en compartimentos estancos. Pero no todo se puede dataficar. Ocurre, por ejemplo, con las ciencias sociales, el pensamiento filosófico o los sentimientos. “Y son formas muy importantes de conocimiento para comprender el mundo que estamos dejando fuera de estos procesos de dataficación”, lamenta Jaume-Palasí.
Uno de los campos donde más impacto tendrá esta tecnología que aún está por definir es el de la neurociencia. Desde su laboratorio en la Universidad de Columbia (EE UU), el neurobiólogo Rafael Yuste coordina los experimentos más ambiciosos realizados en toda la historia relacionados con el estudio de la mente y el cerebro humano. Se trata del proyecto Brain, una investigación internacional en la que participan 500 laboratorios con una inversión próxima a los 5.400 millones de dólares.
Su objetivo es desarrollar métodos y técnicas nuevas para poder leer la actividad cerebral y alterarla. Uno de los principales motivos que justifican esta investigación es el clínico. Hoy en día, las enfermedades cerebrales, tanto neurológicas como neurodegenerativas, son incurables, básicamente porque al no entender cómo funciona la mente, no se han desarrollado las máquinas necesarias para chequear la actividad de esos cerebros enfermos. Pero esta tecnología que acabará por llegar, y que cambiará por completo a la humanidad, conlleva un riesgo muy alto.
Proteger los ‘neuroderechos’
“El hecho de registrar la actividad cerebral y cambiarla, abre una serie de consecuencias éticas y sociales. Estamos ante un problema de derechos humanos, porque estas tecnologías afectan a la esencia mismo de lo que es el ser humano”, advierte Yuste. El científico español cree que es imprescindible establecer cuanto antes una legislación mundial que proteja los neuroderechos de las personas, para preservar el cerebro de los hombres y mujeres de las aplicaciones indebidas de este tipo de herramientas tecnológicas. Si no se hace, en un futuro no tan lejano la tecnología será capaz de controlar e incluso de cambiar esos pensamientos que ocurren en las mentes. “Es necesario proteger a la humanidad para cuando llegue la neurotecnología, que será muy positiva y útil, pero que tiene aspectos que debemos evitar”, insiste.
Durante el reciente evento Retina SQL. Surviving the Quantum Leap (Sobreviviendo al salto cuántico), organizado por EL PAÍS y patrocinado por Banco Santander, se han abordado otras cuestiones interesantes como la idea de “austeridad automatizada”, acuñada por la politóloga Virginia Eubanks. En su libro La automatización de la desigualdad (Capitán Swing), la autora describe cómo el uso de software en la gestión y asignación de recursos públicos perjudica a la población más pobre de EE UU. Eubanks investiga el impacto de la minería de datos, las políticas del algoritmo y los modelos de riesgo predictivo aplicados a las personas pobres y de clase trabajadora en su país. Su conclusión es que la administración estadounidense siempre ha utilizado su ciencia y tecnología de vanguardia para contener, investigar, disciplinar y castigar a los sintecho. Un proceso en el que se debilita la democracia y se traicionan los valores nacionales.
“Estamos ante una crisis increíble de derechos humanos y el algoritmo no resuelve el problema. Las comunidades merecemos algo mejor porque la pobreza digital nos limita muchísimo”, denuncia la investigadora. En su opinión, la solución pasa por diseñar la tecnología con valores como la dignidad, el derecho y la igualdad. “Si queremos tener un futuro más justo, hemos de construirlo ladrillo a ladrillo sin renunciar a estos conceptos”, afirma.
Estamos ante una crisis increíble de derechos humanos y el algoritmo no resuelve el problema. Las comunidades merecemos algo mejor porque la pobreza digital nos limita muchísimoVirginia Eubanks, politóloga
Precisamente justicia y confianza son dos ingredientes presentes en lo que el arquitecto chileno Alejandro Aravena denomina “urbanismo poroso”, un modelo en el que la labor del urbanista es sentar las bases sobre las que la ciudadanía debe construir la ciudad. Si la arquitectura porosa es aquella que se deja atravesar por la vida y las acciones de los hombres, es una prioridad crear sistemas abiertos que permitan canalizar la presencia de quienes viven allí. “Entender el urbanismo no como algo que se entrega terminado. Cuando uno finaliza el proceso de diseño es cuando empieza el proceso de colonización por parte de las personas”, reflexiona Aravena.