X
Privacidad y Cookies

Utilizamos Cookies propias y de terceros para ofrecer un mejor servicio y experiencia de usuario.

¿Permites el uso de tus datos privados de navegación en este sitio web?

Por qué no hay que tener miedo de la inteligencia artificial

La irrupción de una tecnología requiere nuevas reglas. ¿Cómo lidiamos con los robots?

Coches y peatones comparten la calzada en Detroit, en los años veinte.

La idea de una sociedad automatizada, plagada de robots tanto en el hogar como en el trabajo, fue una de las utopías —y distopías— con las que reaccionó la literatura a la introducción de los sistemas de automatización. A principios del siglo XX, el uso de automóviles y semáforos popularizó la automatización a pie de calle. Desde entonces, el número de máquinas y procesos automáticos en nuestras vidas ha aumentado exponencialmente: las lavadoras, los cajeros automáticos, el enfoque de las lentes de una cámara de fotos, las puertas, el lavado de coches, el termostato… Y el temor inicial que en su día despertaron ha dejado paso a una sensación de rutina. La automatización es tan corriente, que ni siquiera nos percatamos cuando nos topamos con ella.

Sin embargo, la inteligencia artificial (IA) y las máquinas automáticas no son lo mismo. La IA es una forma de automatización avanzada. En los dispositivos convencionales se crean reglas de programación muy exactas con las que una máquina ejecuta tareas determinadas. La eficiencia depende del detalle y la exactitud con el que se haya programado la tarea: por ejemplo, trazar la ruta más corta entre Sevilla y Madrid. Lo que permite la IA es una automatización más abstracta. Eso significaría trazar la ruta más rápida entre Sevilla y Madrid teniendo en cuenta las obras, el número de semáforos, los horarios previsibles de mayor intensidad de tráfico, así como imprevistos como accidentes de tráfico o las condiciones meteorológicas. Es decir, la programación se centra en la creación de reglas con las que medir la eficiencia en ese contexto y en el desarrollo de parámetros de actuación. Siguiendo esas reglas, los sistemas de automatización inteligentes escogen el proceso más eficaz. Ese nivel de abstracción es un hito en la historia de la tecnología.

Estos logros asombran y asustan al mismo tiempo. Por falta de familiaridad, la IA parece magia y nos lleva a reabrir viejos debates. ¿Es esa tecnología inteligente? ¿Tiene sentimientos y voluntad? ¿Es capaz de maldad y alevosía? ¿Quién es responsable si el sistema tiene efectos nocivos no previstos? ¿Va a cambiar la naturaleza del ser humano? ¿Qué riesgos conlleva? ¿Necesitamos nuevas normas?

Estas mismas cuestiones fueron precisamente objeto de debate en los tribunales de diversos países tras la comercialización del automóvil a principios del siglo XX. El hecho de que las mismas incertidumbres y preguntas surgidas con la introducción de un nuevo medio de transporte resurjan un siglo después con la llegada de la IA, requiere de una revisión del debate de antaño. Desde el punto de vista normativo, tres aspectos merecen nuestra atención.

1. La tecnología sólo parece inteligente y humana cuando su uso no es corriente

La comercialización de los coches fue en su día anhelada por todas las capas sociales. El automóvil como medio de transporte prometía un futuro de eficiencia e higiene en ciudades con calles infestadas de heces equinas. En cuestión de pocos años se dio un vuelco de 180 grados y los coches se convirtieron en una nueva plaga urbana. En los años veinte las manifestaciones en protesta por la inseguridad en las calles eran comunes: desfilaban chatarras de accidentes reales, con maniquíes ensangrentados y satanás como conductor. Las ciudades de Washington y Nueva York organizaron manifestaciones con 10.000 niños vestidos de fantasmas, simbolizando el número anual de muertos en accidentes de tráfico.

En pocos años el coche se convirtió en objeto de un debate ético fundamental que llegó hasta los juzgados. La audiencia provincial de Georgia, por ejemplo, mantuvo un intenso debate acerca del carácter moral del automóvil. En su veredicto, la audiencia concluía que si bien dichos vehículos no son malévolos, “deben ser clasificados como animales salvajes peligrosos”. Por ello debían aplicarse las leyes vigentes para la tenencia de animales exóticos.

Obviamente, con el paso del tiempo, el contacto y familiarización con los nuevos vehículos de transporte debilitaron las teorías humanizantes que atribuían a las máquinas motivos e intenciones diabólicas. El debate ético y legal volvió a centrarse en el comportamiento del ser humano delante y detrás del volante.

Ese aspecto de la discusión, de carácter filosófico a primera vista, tuvo una clara consecuencia a nivel jurídico. Se descartó así la existencia de una responsabilidad por parte de la máquina como si esta fuera una entidad inteligente. Retrospectivamente, lo contrario no sólo resultaría ridículo, sino que habría supuesto un reto para la ética y el derecho a la hora de crear normas y sanciones que fuesen viables tanto para seres humanos como para máquinas.

El debate en torno a la inteligencia artificial en este aspecto tiene las mismas implicaciones y requiere plantear las mismas consecuencias jurídicas y éticas. ¿Tiene el robot intenciones que justificarían la creación de una entidad jurídica propia? ¿En qué modo recaería la responsabilidad en la máquina exculpando a todo ser humano? ¿Cómo se podría implementar una sanción a una máquina?

La inteligencia artificial y sus métodos de análisis estadísticos no encierran en sí una voluntad propia. La inteligencia artificial no es inteligente. Por ello es incapaz de tener ambiciones e intereses propios y engañar o mentir. En otras palabras, la inteligencia artificial nos debería dar tanto miedo como la estadística. Eso no significa que sea inocua. La inteligencia artificial y sus algoritmos no son neutrales, sino el reflejo de las intenciones y el sesgo involuntario del equipo de programadores, científicos de datos y entidades envueltas en la implementación de esa tecnología.

Con la IA se pueden establecer protocolos muy transparentes que permitan determinar las modificaciones que han sido efectuadas por personas, independientemente de cuán complejos sean los algoritmos con los que opera esta tecnología. No hay motivo alguno por el que resulte necesario crear una entidad jurídica específica para la inteligencia artificial. La propia tecnología permite atribuir la responsabilidad por fallo o abuso a una persona determinada con más claridad y facilidad que antes.

El conductor que maneja la inteligencia artificial y el peatón expuesto a ese tráfico, pueden ser identificados.

2. La ética y la ley deben ser neutrales frente a la tecnología

Volviendo a los dilemas que generó la llegada de los coches hace un siglo, en aquel momento fue crucial enfocar el debate (ético y legal) en el ser humano para poder formular leyes y normas prácticas y aplicables. No obstante, la creación de un sistema legal y normativo que adjudicara derechos y obligaciones sólo podía ser legítima con una clara idea de los riesgos y de los actores involucrados. Los tribunales y la sociedad en general tardaron un tiempo en entender tanto los aspectos técnicos del coche, como los problemas que planteaba el tráfico.

Los primeros intentos regulatorios nos parecerían hoy en día grotescos. Sobre todo por la imposición de obligaciones a actores incapaces de ejercer un control adecuado sobre la máquina. En Reino Unido, por poner un ejemplo, se requería al conductor que, antes de circular por un municipio, lo notificara al alguacil para que este, armado con dos banderas rojas, pudiera marchar ante el coche y advertir a los peatones.

El sistema legal que trataba de regular el tráfico atribuyó la responsabilidad exclusivamente al conductor. Sin embargo, en aquellos tiempos las calles se caracterizaban por su falta de previsibilidad: las señales de tráfico aún no habían sido inventadas, los niños jugaban en la calzada, los carruajes de caballos se desbocaban al oír los motores, y los peatones eran incapaces de calcular la velocidad a la que se acercaban los coches. Todo esto hacía que la responsabilidad asignada al conductor fuese desproporcionada. Desde el punto de vista fisiológico, era imposible reaccionar ante tanto imprevisto.

El pragmatismo y el sentido de justicia social llevaron al canadiense James Couzens a inventar un sistema de señales y reglas de tráfico para coordinar a peatón y conductor. Couzens dimitió de su puesto como vicepresidente de finanzas en Ford y empezó a trabajar para el Ayuntamiento de Detroit (EE UU), capital mundial automovilística en aquel entonces. Cigarro en mano, Couzens revolucionó las infraestructuras de transporte. En primer lugar, identificó las situaciones en las que la responsabilidad recaía en el peatón, y creó señales y zonas para poder cruzar las calles.

Al principio, la resistencia por parte de la sociedad fue grande. Las normas y obligaciones para los peatones no estuvieron exentas de controversia: el concejal Sherman Littlefield las tachó de denigrantes al “tratar a los ciudadanos de a pie como ganado”. Couzens no se dejó amedrantar e impuso sus normas por decreto. El tiempo le dio la razón, demostrando la efectividad de su propuesta, que acabó convirtiéndose en el modelo internacional. Couzens también se encargó de crear un plan de control y gestión del tráfico que permitiera prescindir de la presencia de la policía en caso de falta de personal. Así fue cómo Detroit se convirtió en cuna del avance tecnológico, con ideas revolucionarias como el semáforo automático en los años veinte.

Es destacable la poca atención que Couzens prestó al automóvil como tecnología en sí a la hora de concebir sus reglas de tráfico: las normas y limitaciones no atañían al aspecto técnico, sino únicamente a su uso en el espacio público. Por ejemplo, las medidas para restringir la velocidad no prohibían el desarrollo de motores con más caballos de fuerza, sino que limitaban el uso del acelerador por parte del conductor. Gracias a ello las leyes y normas establecidas por Couzens no tuvieron que ser modificadas con cada cambio tecnológico, ya que siempre permitían una recontextualización del uso de la tecnología. El hecho de que las normas de tráfico establecidas fuesen tecnológicamente neutrales es el motivo por el que un siglo después siguen vigentes y, en su esencia, no han perdido actualidad.

En el campo de la IA se están estudiando leyes y principios éticos que se puedan aplicar a los códigos de programación. Un ejemplo es el principio de la “minimización de datos personales”, por el cual sólo se debe procesar la cantidad mínima de datos personales necesaria para ofrecer un servicio o ejecutar una tarea. Este es un principio técnico que tiene una importancia vital y afecta al procesamiento de información. Por una parte, el proceso salvaguarda la privacidad de las personas implicadas. Sin embargo, esta regla puede ir, paradójicamente, contra la igualdad de trato porque no tiene en cuenta el contexto. Por ejemplo, hasta hace poco más de una década, los ensayos sobre el uso de beta bloqueadores (fármacos muy utilizados en cardiología) se realizaban a partir de una base de datos integrada mayoritariamente por varones de la etnia europea. Sus conclusiones eran válidas para ese grupo, pero no para mujeres o para etnias con otra variación genética.

La falta de información de determinados grupos sociales acaba generando una base de datos sesgada desde el principio: el perfil y características de una parte de la población estará sobrerrepresentada y distorsionará el cálculo, dando una impresión errónea del conjunto. Asumir que con menos datos el riesgo de discriminación disminuye es un mito. Dependiendo del contexto, se necesitarán más o menos datos personales para no caer en simplificaciones que nos lleven a discriminar a determinados grupos.

Estos ejemplos son una muestra de que tenemos que cambiar de estrategia, porque hasta ahora el debate sobre la inteligencia artificial se ha centrado en la parte técnica. Pero la historia demuestra que es posible elaborar leyes y normas sobre nuevas tecnologías sin regular el código matemático en sí. La ética y el derecho convencionalmente se enfocan en el contexto social: sus principios no se aplican al proceso técnico, sino a la situación social en la que dicho proceso técnico se integra. No se trata de regular la tecnología que permite la inteligencia artificial, sino lo que las personas hacen con ella.

3. La educación de la sociedad para tratar nuevas tecnologías no requiere conocimientos técnicos

Con los coches, Couzens vio necesaria la educación del ciudadano para que las reglas de tráfico permeasen y fuesen adoptadas por la sociedad. Asimismo, era consciente de que había aspectos de gran importancia —como aprender a calcular la distancia y velocidad de un automóvil— que sólo se podían resolver con la integración de dichas tecnologías en la vida cotidiana y la familiarización de uso. Couzens no creyó que fuese necesario entender los mecanismos del automóvil más allá de su funciones operativas, es decir, frenar, acelerar o cambiar una llanta. Tanto en el derecho como en la ética rige la premisa ultra posse nemo obligatur, término jurídico que afirma que nadie está obligado a más de lo que puede hacer. Los conocimientos necesarios para entender los mecanismos de un coche transcienden el sentido común, así que nadie tiene el deber de conocerlos.

En el debate sobre la IA al ciudadano se le pide una mayor competencia a nivel técnico. Pero los dilemas que generó el automóvil a principios del siglo XX prueban que este tipo de discurso no es constructivo. No necesitamos saber cómo funciona un avión para poder subirnos a uno. Tampoco se nos exige saber de bioquímica para comprar un yogur. Más allá de lo que se puede, del sentido común, nadie está obligado a saber.

La IA permite detectar patrones de comportamiento humano e identificar diferencias en la actuación de distintos grupos (mujeres, etnias, clases sociales, entre muchos otros). En base a ello, el equipo de personas que usa dicha tecnología puede decidir discriminar de forma más o menos legítima, ofrecer servicios o informaciones diferentes, manipular la atención y hacer sugerencias distintas. Se debe tener también en cuenta la discriminación involuntaria e implícita, y por ello resulta imprescindible una evaluación constante de la tecnología. Para ello los expertos no sólo deben disponer de una sensibilidad ética general, sino en particular en lo relativo a la discriminación involuntaria que puede resultar a partir de sesgos en el diseño o en las bases de datos con las que opera la IA.

El uso de esta tecnología para amplificar o compensar la discriminación depende del grupo de seres humanos que la utilice. El ciudadano no es quien debe entender el proceso técnico detrás de la IA para poder usarla. Son los ingenieros, los científicos de datos, así como los departamentos de marketing y los Gobiernos que usen o tengan que regular dichas tecnologías, quienes deben comprender la dimensión social y ética de la inteligencia artificial.

Lorena Jaume-Palasí es directora ejecutiva de AlgorithmWatch y miembro del Grupo de Sabios sobre Inteligencia Artificial y Big Data del Gobierno español.

Archivado en:

Y además:

Outbrain