_
_
_
_
_

¿Quién es responsable de los daños que cause un robot?

Europa se fija en las leyes de Asimov para una futura regulación de la máquinas autónomas

Raúl Limón
Fotograma de un vídeo divulgado por la ABC estadounidense del momento del accidente.
Fotograma de un vídeo divulgado por la ABC estadounidense del momento del accidente. ap

El accidente de un coche autónomo de Uber el pasado 19 de marzo, con el atropello mortal de un peatón que cruzaba la calle empujando su bicicleta en Tempe (Arizona-EEUU), ha vuelto a plantear una cuestión crucial sobre los robots: la responsabilidad. La UE quiere anticiparse a un futuro próximo, en el que las máquinas tendrán un peso fundamental en los sucesos, no solo luctuosos sino también sociales, económicos o políticos.

El Parlamento Europeo, en sus recomendaciones a la Comisión para que regule el derecho civil sobre robótica, ha establecido unas premisas básicas planteadas ya a mediados del pasado siglo por Isaac Asimov, el visionario científico de origen ruso fallecido en Nueva York en 1992: “1ª Un robot no hará daño a un ser humano ni permitirá que, por inacción, este sufra daño. 2ª Un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley. 3ª Un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda". Estas leyes se resumen en una denominada 0:"Un robot no hará daño a la humanidad ni permitirá que, por inacción, esta sufra daño”.

Más información
La robot Sophia: “Los humanos son las criaturas más creativas del planeta pero también las más destructivas”
El empleo no peligra; tu sueldo sí

Aunque el accidente de Uber sea el más mediático, el campo de la responsabilidad puede llegar a ser muy amplio en el futuro. ¿Quién sería responsable de la muerte de un paciente intervenido por robots o de un diagnóstico o tratamiento erróneo en un sistema de asistencia basado en inteligencia artificial o de la destrucción de una escuela por un misil autónomo o de un siniestro causado ya no solo por un vehículo sino por un electrodoméstico programado con inteligencia artificial o de un conflicto social generado o avivado por mensajes falsos automatizados?

EE UU, Japón, China y Corea del Sur ya han comenzado a legislar. "En Europa, en el ámbito de los consumidores, se aplica la directiva sobre bienes defectuosos, pero sus normas pueden estar obsoletas para los productos automatizados o autónomos en sus concretas tareas", afirma Reyes Jiménez, profesora de Derecho Internacional Público de la Universidad Pablo de Olavide. El propio Parlamento de Estrasburgo lo reconoce al reclamar un marco "adecuado, eficiente, transparente y coherente".

"La responsabilidad civil debería individualizarse mejor, delimitándose la que corresponde al diseñador, al fabricante, al vendedor, e incluso al operador-consumidor final", comenta Jiménez quien defiende que las leyes deberían estar marcadas en todo momento por principios éticos.

En la misma línea se sitúan las recomendaciones europeas, que advierten de que, en cualquier caso, la regulación no debe impedir el desarrollo de la robótica siempre que esta “esté al servicio de la humanidad”. Es aquí donde el Parlamento Europeo ve en las leyes de Asimov la base del futuro de la robótica, en especial, en la norma 0, que engloba las restantes: “Un robot no hará daño a la humanidad ni permitirá que, por inacción, esta sufra daño”.

La Comisión Europea evalúa la directiva 85/374/EEC sobre productos defectuosos, la que actualmente se aplica, para determinar su validez ante la programación, la computación en la nube, el Internet de las Cosas y los sistemas autónomos así como sobre quién debe recaer la responsabilidad en relación de los daños causados por el comportamiento de un robot.

Efectos perversos en la democracia

Los sistemas de seguros que se aplican actualmente, como en el caso de los vehículos, es una de las herramientas que prevé la Comisión para extenderlos de forma obligatoria a los robots, pero admite que es insuficiente ya que hay que considerar, además, “los impactos sociales y económicos de la inteligencia artificial” así como "las consecuencias en los derechos fundamentales y en la democracia".

Esta última cuestión es clave una vez demostrada la influencia de los “bots” (herramientas automáticas de difusión masiva de mensajes que incluían falsedades) en procesos como la amenaza secesionista catalana o las elecciones en Estados Unidos.

Alejandro Sánchez del Campo, jurista y autor del blog Replicante Legal, afirma que Europa plantea cuestiones fundamentales. “Si el desarrollo tecnológico lleva a la inteligencia autónoma, las categorías legales actuales pueden no ser suficientes”, advierte.

Este abogado cree que los sistemas jurídicos de ahora regulan las máquinas existentes, que no toman decisiones, por lo que la responsabilidad recae sobre el fabricante de un producto defectuoso, el operador del mismo si no ha seguido las especificaciones o sobre el afectado, por una imprudencia. En estos casos, asegurar los robots existentes, como en el caso de los vehículos, “tiene sentido”.

Otro campo, advierte, Sánchez del Campo, es la responsabilidad penal, que hasta hace poco tiempo, en España, se limitaba a las personas y se ha ampliado a las empresas. “Es un debate inteligente. Aunque se tardarán años en desarrollar sistemas autónomos, si no empezamos ya a pensar sobre sus implicaciones legales y morales, cuando queramos regularlos puede ser tarde”, afirma.

“En el futuro, si se generalizan los dispositivos autónomos, habrá que adaptar la ley”, coincide Óscar-Rubén Sanz, director técnico de Kalibo, una compañía con seguros para productos tecnológicos. “La legislación, de alguna manera, se anticipó al vincular, por ejemplo, el seguro a los vehículos. En este caso, ante cualquier daño, la víctima está cubierta, con independencia de que se determine que la responsabilidad fue del propietario, el conductor o un defecto de la máquina. Es una ventaja, pero no es suficiente para el inmediato desarrollo tecnológico”, comenta.

Francisco Oliva, catedrático de Derecho Civil de la Universidad Pablo de Olavide, coincide con la oportunidad del seguro para robots como opción para la tecnología actual, pero anticipa que hay que pensar ya en el futuro porque el sistema actual es insuficiente. "La ley de productos defectuosos está pensada para un microondas, no para procesos de aprendizaje de las máquinas cuyas consecuencias son impredecibles", comenta. Oliva añade que ahora es el perjudicado quien tiene que probar el defecto del producto, algo de extraordinaria complejidad en sistemas robóticos avanzados. "Es una prueba diabólica o imposible", advierte.

Sobre los conflictos generados por el uso de bots en acontecimientos políticos y sociales, como el proceso catalán o las elecciones, Oliva afirma que ahora, cuando hay un responsable humano detrás de la programación de los robots de difusión masiva, la ley es clara: "El que por acción u omisión causa daño a otro, interviniendo culpa o negligencia, está obligado a reparar el daño causado". Pero admite que esa legislación no está preparada para un futuro de máquinas 100% autónomas. "En ese escenario, habría que plantear la figura de la personalidad mecánica o electrónica. Pero hoy es ciencia ficción", afirma.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Sobre la firma

Raúl Limón
Licenciado en Ciencias de la Información por la Universidad Complutense, máster en Periodismo Digital por la Universidad Autónoma de Madrid y con formación en EEUU, es redactor de la sección de Ciencia. Colabora en televisión, ha escrito dos libros (uno de ellos Premio Lorca) y fue distinguido con el galardón a la Difusión en la Era Digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_