Análisis:EL ACENTO

Tú, robot

Apréndase las tres leyes de la robótica: no dañar a los humanos, obedecerles salvo conflicto con lo anterior, y autoprotegerse salvo conflicto con todo lo anterior. Las inventó hace medio siglo un novelista, Isaac Asimov, cuando el autómata más avanzado era un ordenador del tamaño de un salón comedor, programable con tarjetas perforadas y dotado de menos memoria que el iPhone del niño. Pero las leyes de la robótica ya están dejando de ser ciencia-ficción. La élite de la inteligencia artificial, un área muy activa de las ciencias de la computación, acaba de discutir la necesidad de poner límite...

Suscríbete para seguir leyendo

Lee sin límites

Apréndase las tres leyes de la robótica: no dañar a los humanos, obedecerles salvo conflicto con lo anterior, y autoprotegerse salvo conflicto con todo lo anterior. Las inventó hace medio siglo un novelista, Isaac Asimov, cuando el autómata más avanzado era un ordenador del tamaño de un salón comedor, programable con tarjetas perforadas y dotado de menos memoria que el iPhone del niño. Pero las leyes de la robótica ya están dejando de ser ciencia-ficción. La élite de la inteligencia artificial, un área muy activa de las ciencias de la computación, acaba de discutir la necesidad de poner límites a la investigación en robótica. Y lo ha hecho en Asilomar, el mismo enclave de la bahía californiana de Monterrey donde, hace sólo 35 años, los líderes de la biología mundial acordaron las normas estándar de seguridad para el -entonces- incipiente sector del diseño de genes y organismos vivos. La historia de la ciencia se repite.

Ni los ingenieros genéticos de entonces ni los científicos de la computación de ahora tienen la intención de dificultar el desarrollo de una tecnología con un enorme potencial para mejorar la vida de las personas. Pero han considerado necesario reflexionar sobre los posibles riesgos de las máquinas inteligentes, y anticiparse a ellos con unas recomendaciones que acabarán siendo vinculantes para los expertos en inteligencia artificial de todo el mundo. Con la probable excepción de los científicos militares, por supuesto: ahí no suele haber más pauta que la de superar al científico enemigo.

Y ésa es justo la primera preocupación de los investigadores reunidos en Asilomar. Saben que ya existen máquinas de guerra como los zánganos predadores, una especie de avionetas autónomas que sobrevuelan los objetivos y deciden por su cuenta si merecen un bombardeo. Pero también hay máquinas que abren puertas y buscan enchufes para recargarse a sí mismas, interpretan las emociones humanas, hacen experimentos científicos o formulan hipótesis. Y los virus informáticos pueden alcanzar pronto la fase cucaracha de la inteligencia artificial: feos, dañinos e indestructibles.

Haz que tu opinión importe, no te pierdas nada.
SIGUE LEYENDO

El peligro no es que las máquinas piensen: es que los humanos no lo hagan.

Archivado En