La moral de los drones
La brutal máquina de matar israelí vive de la tecnología más sofisticada. Y el problema es que, cuanto más sobrehumana es una tecnología, más inhumana es su aplicación
Nuestro hijo se rompió la pierna la semana pasada y los dispositivos tecnológicos de la familia se han llenado de anuncios de centros de rehabilitación y seguros médicos. Podría ser peor. Si fuéramos militantes de Hezbolá, el ejército israelí analizaría nuestros movimientos con drones invisibles y secuestrando las imágenes de las cámaras de seguridad de las calles o el micrófono del control remoto de la televisión. Como informa Financial Times, Israel ha localizado así a los líderes de la milicia chií que, como Hasan Nasralá, llevaban años viviendo en el subsuelo, yendo de un búnker a otro. Cualquier pieza de información, la imagen de una acera o una pared, el sonido de un coche o un pájaro, es filtrado por un cerebro casi omnisciente de Inteligencia Artificial (IA).
La brutal máquina de matar israelí vive de la tecnología más sofisticada. Todo artefacto electrónico, de los buscas y walkie talkies explosivos a los cuentakilómetros de los coches, es un zombi de metal al servicio del Mosad. Y el problema es que, cuanto más sobrehumana es una tecnología, más inhumana es su aplicación. Lo hemos visto durante meses en los bombardeos sobre Gaza, selectivos en teoría pero indiscriminados en la práctica.
La destrucción de ciudades, la sangre derramada y los gritos de dolor que se oirán durante generaciones, no son efectos colaterales o accidentales. Hay responsables, personas conscientes que toman decisiones sabiendo sus consecuencias, empezando por el primer ministro, Benjamín Netanyahu, que parece más interesado en extender el conflicto a los “siete frentes” (Gaza, Cisjordania, Líbano, Irán, Siria, Irak y Yemen) que en acotarlo y buscar una solución pacífica.
Pero también hay una culpabilidad no deliberada que emerge del subconsciente de las nuevas máquinas de guerra, que afecta a las decisiones de muchas personas y que nos debería inducir a reflexionar a todos. Es lo que los filósofos llaman la “descualificación moral”. La automatización de toda actividad humana —ya sea tejer jerséis con telares mecánicos o bombardear con sistemas armamentísticos autónomos— interpone una distancia entre la persona y la realidad que propicia un desapego moral. La industrialización facilitó abusos como el trabajo infantil en las fábricas y la IA ha deshumanizado muchos procesos, como la selección o el despido de trabajadores sobre la base de algoritmos. En el terreno militar, las posibilidades de degradación moral por las nuevas tecnologías son casi infinitas. El nuevo francotirador no tiene corazón. @VictorLapuente
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.