_
_
_
_

¿Quién tiene la culpa si un brazo robótico te rompe la mano?

Científicos revisan los dilemas éticos y los riesgos de neuroprótesis e interfaces cerebro máquina

Miguel Ángel Criado
Como otras máquinas, las neuroprótesis se podrán 'hackear'.
Como otras máquinas, las neuroprótesis se podrán 'hackear'.Wyss Center

Aún no están en las tiendas pero, como los coches autónomos o la inteligencia artificial, las neuroprótesis y otros dispositivos controlados por el cerebro prometen mejorar la vida de las personas. Sin embargo, igual que los vehículos y los robots, estas interfaces cerebro-máquina suscitan algunos dilemas morales y nuevos peligros. ¿Quién es el responsable si un brazo robótico destroza la mano que aprieta? ¿Cómo asegurar que nadie hackea el cerebro de una persona conectado a una máquina?

Un grupo de neurocientíficos, neuroingenieros y hasta filósofos han querido responder a estas y otras preguntas en un artículo publicado en la revista Science. Las promesas que ofrecen las interfaces cerebro-máquina (BMI, por sus siglas en inglés), en especial a personas con discapacidad física o parálisis, son tantas que pueden oscurecer sus peligros. La reflexión de los científicos destaca tres de ellos: Uno es el de la responsabilidad de las acciones de una neuroprótesis, ¿quién se hace cargo de las consecuencias? Otro riesgo es la amenaza a la privacidad de la persona, que expone lo más íntimo que tiene, sus pensamientos. Un tercero dibuja una distopía en la que, usando la conexión a la máquina, alguien se adueña del cerebro de otro.

"Aunque aún no entendemos bien como funciona el cerebro, nos estamos acercando al momento en que descifraremos fielmente determinadas señales cerebrales", dice en una nota el director del Centro Wyss para la Bio y Neuroingeniería (Wyss Center, Suiza) y coautor del artículo, John Donoghue. "No deberíamos confiarnos sobre lo que esto puede significar para la sociedad. Deberíamos considerar con mucho cuidado las consecuencias de convivir con máquinas semiinteligentes controladas por el cerebro y deberíamos preparar mecanismos para asegurarnos de que se usan de forma segura y ética", añade.

La determinación de la responsabilidad ya está creando problemas a robots no autónomos como el robot quirúrgico Da Vinci

En los últimos años, se han sucedido una serie de demandas en EE UU contra Intuitive Surgical, el fabricante del robot quirúrgico Da Vinci, por errores en sus operaciones. Aunque Da Vinci no es autónomo, funcionando como una prolongación robótica del cirujano, ilustra el complejo problema de la responsabilidad. Y es que no siempre es fácil determinar si un acto perjudicial es fruto de un error, una imprudencia o es intencionado. El ejemplo de un conductor al que le fallan los frenos puede ilustrar el problema.

"El conductor y su cerebro son uno y, como todas las conductas se originan en el cerebro, la responsabilidad legal del conductor y el cerebro es idéntica", recuerda en un correo el neurocientífico del Centro Wyss y coautor del estudio, Niels Birbaumer. "Sin embargo, el problema se complica cuando el BMI está usando señales cerebrales sobre las que el conductor no tiene un control consciente. Aquí tenemos un interruptor consciente que puede detener una acción causada por un proceso inconsciente del conductor", añade este profesor que lleva años investigando con BMI y recientemente logró que cuatro personas con el síndrome de cautiverio total se comunicaran con el exterior.

Para afrontar estos problemas, los autores del artículo proponen que las interfaces cerebro-máquina cuenten con un sistema de veto por el que, llegado el caso, se pudiera revertir una instrucción dada a la máquina en milisegundos.

La conexión del cerebro a una máquina podría suponer un riesgo para la privacidad del conectado

Hay otros que no lo ven tan complicado. Es el caso del investigador de la Universidad Tecnológica Chalmers (Suecia). Max Ortiz Catalán: "En cuestiones de responsabilidad, en verdad no hay mucha diferencia entre estas nuevas tecnologías y manejar un auto. Una prótesis de mano te puede causar bastante daño durante un saludo si el paciente decide cerrarla con toda su fuerza, al igual que si un automovilista decide atropellarte".

Este mexicano, mitad ingeniero, mitad neurocientífico, implantó un brazo robótico a Magnus, un camionero que lo había perdido en un accidente años atrás y que, desde 2013, puede coger un taladro, trabajar o jugar con sus hijos.  "La responsabilidad esta dividida entre los creadores de la tecnología y los usuarios y, así como hay leyes que intentan mitigar los posibles daños de una tecnología, por ejemplo no usar tu teléfono celular y conducir, todas las tecnologías neurales tienen advertencias e indicaciones de uso, además de toda las medidas internas de seguridad", explica Ortiz Catalán.

Una forma para rastrear la responsabilidad ya la ofrece la propia tecnología. La mayoría de estos sistemas registran toda la actividad que va desde la máquina hasta el cerebro y en sentido contrario, funcionando como cámaras de vigilancia. Pero esto mismo plantea un nuevo peligro: la amenaza a la privacidad. Hasta ahora, salvo casos como el del camionero Magnus, los estudios con BMI se han quedado en los laboratorios. Las señales emitidas por el cerebro de una persona con tetraplejia, ELA o el síndrome del cautiverio se quedan en la máquina y solo los investigadores pueden leerlas. Pero, ¿qué pasaría si una compañía empezara a comercializar estos sistemas?

El peligro más lejano pero desasogante es el de 'hackear' y manipular la mente

Aquí, Ortiz Catalán, que no ha intervenido en este trabajo, insiste en que no hay tanta diferencia entre estas tecnologías cerebrales y otras que nos son mucho más cercanas. "Nuestros teléfonos graban mucha información sobre nosotros. Google sabe todo lo que te interesa, hasta lo que te apenaría que otros supieran, incluso cosas que potencialmente te dañarían si las supiera la persona equivocada. Vivimos en una era en la estamos aprendiendo como manejar la privacidad". comenta.

Pero el riesgo que más desasosiego provoca quizá sea la posibilidad de que alguien con malas intenciones pueda hackear el cerebro de la persona conectada a una máquina. La que convierte los pensamientos de Stephen Hawking en palabras no está conectada a su cerebro, aprovecha aún que controla los músculos de su mejilla. Pero, en el futuro, puede que solo le quede el movimiento ocular o la lectura directa de su cerebro. Aquí es donde aparecería el peligro.

"Hay varias líneas de investigación para lograr la estimulación cerebral no invasiva", recuerda el neurocientífico de la Universidad de Oxford, Laurie Pycroft. El mes pasado, por ejemplo, se daba a conocer una nueva técnica para activar áreas profundas del cerebro sin tener que abrir el cráneo. A medida que estos trabajos pioneros vayan avanzando, la cuestión de la seguridad irá en aumento. Para Pycroft, que el año pasado introdujo el término de brainjacking para describir los peligros que traerán los interfaces cerebro máquina, "casi cualquier dispositivo electrónico corre el riesgo de ser subvertido maliciosamente y los dispositivos más complejos tienden a estar en mayor riesgo. Los neuroestimuladores futuros, invasivos o no, probablemente sean más complejos que los modelos actuales, por lo que es probable que el riesgo aumente con el tiempo".

Suscríbete para seguir leyendo

Lee sin límites
_

Sobre la firma

Miguel Ángel Criado
Es cofundador de Materia y escribe de tecnología, inteligencia artificial, cambio climático, antropología… desde 2014. Antes pasó por Público, Cuarto Poder y El Mundo. Es licenciado en CC. Políticas y Sociología.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_