Selecciona Edición
Conéctate
Selecciona Edición
Tamaño letra

Un código ético para las “personas electrónicas”

La UE plantea leyes para los robots bajo la premisa de que la tecnología evoluciona, pero los dilemas morales siguen siendo los mismos

Uno de los robots presentados en la feria de la electrónica de Tokio.
Uno de los robots presentados en la feria de la electrónica de Tokio.

Desde el monstruo de Frankenstein, descrito por Mary Shelley, hasta el enigmático Golem de Praga, la literatura y el cine están plagadas de fantasías sobre la creación de androides capaces de actuar a merced de la voluntad humana. En cierta medida, la revolución 4.0 lo ha conseguido. Drones, coches que se conducen solos y brazos articulados que realizan complejas operaciones quirúrgicas teledirigidos a distancia son ya habituales. La UE calcula que en todo el mundo hay 1,7 millones de robots y su crecimiento es imparable.

Tengan una forma más o menos humanoide, los robots no son más que máquinas equipadas con sensores e interconectadas para recabar datos: una simple ordeñadora puede ser tratada como un robot. Nadie duda de que la nueva generación será más sofisticada y autodidacta. Para afrontar los retos que estos ejemplares plantearán, los europarlamentarios han llegado a la conclusión de que es necesario elaborar un estatus legal de la “persona electrónica”. La socialdemócrata luxemburguesa Mady Delvaux ha defendido la propuesta y la comisión de Asuntos Jurídicos del Parlamento Europeo ha aprobado un informe cuyo objetivo es regular la inteligencia artificial, crear un registro de robots e impulsar una agencia dedicada a estos menesteres. Uno de los ejes pasa por dotar de un código ético a esta oleada de máquinas listas, siempre bajo la premisa de que la tecnología evoluciona, pero los dilemas morales siguen siendo los mismos.

Europa no quiere que con la robótica le ocurra lo mismo que con Internet: que la normativa ha avanzado a un paso mucho más lento que la realidad. Delvaux parte de las tres leyes que el escritor Isaac Asimov estableció en 1942, según las cuales: 1. Un robot no hará daño a un ser humano ni permitirá, por inacción, que un ser humano sufra daño. 2. Un robot debe obedecer las órdenes dadas por los humanos, excepto si entran en conflicto con la primera ley. 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. El informe asume que los robots son ya “una realidad en expansión” y que es necesario abordar la responsabilidad, la seguridad y la gestión de riesgos relacionados con su actividad. No será un camino fácil. Expertos como el profesor de la Universidad de Oxford Niel Bowerman ya han advertido de que “es posible que algunos avances de la inteligencia artificial nos desestabilicen y que algunas naciones no se adapten bien”.

Uno de los aspectos más peliagudos tiene que ver con quién es responsable en caso de un accidente. Amén de intentar cargarle el muerto al fabricante, se plantea que los robots tengan un seguro obligatorio. Habrá también que hacer compatible la seguridad y la protección de datos. Los robots no pueden funcionar sin un intercambio de información, de modo que habrá que vigilar quién tiene acceso a esos datos. Existe una dimensión económica no menos sensible: si los robots acaparan los trabajos de los humanos, tendrán que asumir también algunas de sus cargas. Por ejemplo, las tributarias.

Puedes seguir EL PAÍS Opinión en Facebook, Twitter o suscribirte aquí a la Newsletter.