Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra
tribuna libre

La decisión y la máquina

Esa ilusión de que Google aprende y es cada año más preciso es falsa: Google no aprende, nosotros somos cada vez más tontos

La decisión y la máquina

La saga cinematográfica Terminator es una de las distopías más populares. Cuenta que, tras haber alcanzado la inteligencia de sus creadores humanos, las máquinas se rebelarán contra ellos y, para exterminarlos, producirán otras máquinas, asesinas y perfectas. Estallará entonces la guerra total entre los hombres y sus artefactos y el destino de la humanidad quedará en manos de un salvador providencial; etcétera. Típico patrón mesiánico judeoprotestante: con su conspiración y su redentor que nos salva.

El guion sin embargo es una variante del viejo mito del Golem. Su novedad está en los espectaculares efectos especiales y en algunos gags inolvidables; y en un actor ideal —Arnold Schwarzenegger—, en la realidad, él mismo una especie de Golem. Su personaje es el ogro de los relatos infantiles; o Yago, el perverso intrigante de Otelo, pues, como él, es un ser de absoluta maldad, una criatura implacable cuya malignidad, por inmotivada e inexplicable, produce espanto.

¿Podemos hacernos una idea del mal absoluto? Si está encarnado en una máquina no parece tan difícil, en cambio entender a Yago es mucho más complicado, pues cuando un individuo es muy malo nuestros ojos se inventan un nihilista demoniaco con estatura moral, como Iván Karamazov. El mal es difícil; y poco nos ayudan las pautas dominantes, pues a medida que nuestras reglas y costumbres son cada vez más permisivas, resulta muy difícil imaginar un personaje absolutamente inicuo que sea también verosímil. Porque hoy en día todo el mundo es malo en alguna medida —otro tópico judeoprotestante difundido por la cultura popular y refrendado por los psicopedagogos—, de ahí que los guionistas de cine escojan malos psicopatológicos, como Henry o Leatherface o Anton Chigurh o Hannibal Lecter, etcétera. Sin embargo, aunque narrativamente verosímil, el psicópata es poco convincente en lo moral. De hecho, las leyes penales no admiten que el loco pueda ser considerado responsable de sus actos, justamente porque está loco; y el mal, no menos que el bien, necesita un sujeto responsable. En efecto, que podamos identificar la responsabilidad en una acción nos permite determinar la intención y su motivo y, sobre todo, la trasgresión, que en última instancia nos permitirá juzgarla moralmente.

Pero para eso ha de ser plausible que el sujeto se equivoque, que elija entre el mal o el bien y se desvíe. Aún más, se requiere una condición trascendental que no deriva de la idea que el sujeto se haga sobre lo bueno o lo malo, sino de una decisión ciega entre las dos instancias que, a su vez, puede ser correcta o equivocada. En suma, la responsabilidad presupone la posibilidad del error: no solo en la alternativa entre el bien y el mal, sino en el acto de decidir entre una opción u otra. Si una acción, cualquiera que sea, solo puede ser correcta —aunque se trate de hacer el mal—, las decisiones dejan de ser tales y la moralidad se extingue.

Así pues, si concebimos un artefacto en el que hayan sido eliminados todos los errores posibles —y eso seguramente ocurrirá tras alguna revolución maquínica—, ya no serán necesarias las tomas de decisiones ni el cálculo de riesgos, y la idea de responsabilidad será tan vacía como una metáfora blanca. Pongamos el caso de los nuevos automóviles sin conductor: ¿tiene sentido sancionar una infracción de tráfico si quien la comete es un algoritmo? No. Es del todo improbable que un autómata liberado de la decisión por el algoritmo cometa infracciones; y, si falla, ¿para qué perder el tiempo con reprimendas o sanciones? Lo mejor será acudir al técnico para que lo corrija. ¿Pero entonces para qué nos servirá tener un código de circulación?

Las máquinas, por otra parte, no solo no se equivocan, sino que, al contrario que los seres humanos, son perfectibles. Y como no se equivocan, tampoco deciden. Por eso la hipótesis de Terminator puede ser inquietante y muy eficaz como ficción cinematográfica, pero es falsa: puede que los artilugios técnicos lleguen a ser casi humanos pero nunca decidirán rebelarse contra los hombres. En cambio, la batalla contra el error se libra a diario en nuestros artilugios cibernéticos. Cada actualización hace más perfecto el artefacto —y, de paso, introduce algún sofisticado robot para afinar el control social—. El perfeccionamiento indefinido nos empobrece desde un punto de vista ético puesto que recorta la esfera de la incertidumbre en la experiencia y anula nuestra capacidad para tomar decisiones, que viene a ser sustituida por soluciones protocolizadas y programadas, como les pasa a los médicos actuales cuando tratan una enfermedad.

Y no hablemos de esa ilusión de que Google “aprende” y es cada año más preciso e inteligente. Falso. Google no aprende, nosotros somos cada vez más tontos.

Lo que diferencia a los hombres de las máquinas no es el sentimiento, simulable mediante un simple juego de lenguaje; ni es la razón, que, como ya sabían los mecanicistas del siglo XVII, es puro cálculo; ni por supuesto la memoria, que una máquina puede atesorar hasta niveles inimaginables para un ser humano; sino la decisión, que implica el error e introduce el caos y las contingencias en el mundo, las felices y las infelices.

He aquí el único derecho a decidir que es preciso defender. Y a toda costa.

Esa ilusión de que Google aprende y es cada año más preciso es falsa: Google no aprende, nosotros somos cada vez más tontos