_
_
_
_
Retina papers

¿Tendremos políticos más eficientes gracias al ‘machine learning’?

Los datos son fundamentales para plantear medidas adecuadas. Los economistas empiezan a sacarle partido al 'big data' para diseñar políticas

Getty Images

Código azul en la 303!". Los fans de las series americanas de hospitales ya sabrán que hay un paciente en parada cardiorrespiratoria. Médicos y enfermeros acudirán corriendo a la habitación para tratar de reanimar al enfermo. El tiempo es vital en estas situaciones, cada segundo es determinante. Pero claro, tampoco nadie tiene el poder de anticipar cuándo y quién va a sufrir un código azul. Un momento. ¿He dicho nadie?

Un algoritmo parece que es capaz de hacerlo... hasta con cuatro horas de antelación. Un grupo de investigadores de la Universidad de Carnegie Mellon, Harvard, Chicago y de la consultora Accenture lo entrenó con los datos de 133.000 pacientes. La máquina aprendió de manera supervisada con la información médica del paciente: datos demográficos, historial clínico, constantes vitales... Hasta 72 parámetros por persona. ¿Qué tal se le dio? Acertó en dos de cada tres pacientes. No está mal considerando que los médicos con su protocolo interno de clasificación de riesgo solo atinaron con un tercio de los enfermos que sufrieron una parada cardiorrespiratoria.

El campo de la economía y las políticas públicas es también un terreno fértil para aprovechar este poder predictivo de las maquinas. Solo hay que cambiar las preguntas que se plantean. En lugar de tratar de identificar las variables que provocan determinado resultado (¿por qué se ha parado el corazón?) hay que buscar situaciones en las que una buena predicción pueda mejorar el resultado final. Sendhil Mullainathan es uno de los economistas más destacados adoptando esta nueva herramienta de investigación y es el autor junto a Kleinberg, Lakkaraju, Leskovec y Ludwig, del estudio Decisiones humanas y predicciones automáticas.

“El aprendizaje de las máquinas es sorprendentemente efectivo en una gran variedad de tareas tradicionalmente asociadas a la inteligencia humana, desde el reconocimiento de rostros en fotos, a la calificación de ensayos escritos”, señalan los autores. “Si estas herramientas se pueden aplicar con éxito a funciones que requieren de la visión y del lenguaje de las personas, ¿por qué no aplicarlo también a decisiones humanas más complejas?”

Cambiemos la escena del hospital por otra en un juzgado. "¡Silencio en la sala!". Los jueces tienen que resolver constantemente si a un arrestado lo mandan a la cárcel hasta la fecha del juicio o lo dejan en libertad (con o sin fianza). Esta decisión tiene importantes consecuencias sociales y económicas. Los magistrados lo que hacen realmente es predecir el comportamiento de esa persona: ¿se presentará el día del juicio? ¿Cuál es el riesgo de que cometa más delitos?

Un algoritmo fue entrenado con los datos de casi 760.000 arrestados en Nueva York entre 2008 y 2013 para que diera una predicción sobre el riesgo de cada persona. “En este caso, los datos de entrada (la analogía de la foto en el caso de la aplicación de reconocimiento de rostro) son los atributos del acusado: antecedentes penales, delito actual… El dato de salida del algoritmo es una predicción del riesgo de crimen”, reza el paper.

En el estudio se entiende como “riesgo de crimen” la probabilidad de que el detenido no aparezca el día del juicio. Es lo que la ley les pide a los jueces de Nueva York que tengan en cuenta. (En otros estados se considera también el peligro de cometer otro delito.)

Getty Images

El primer paso fue analizar si había muchas diferencias entre lo que habían decidido los jueces y el pronóstico de la máquina.

“Los jueces tratan como detenidos de bajo riesgo a muchos de los que el algoritmo señala como de alto riesgo. Por ejemplo, mientras el algoritmo predice que el 1% de los acusados con más riesgo tiene una probabilidad de crimen del 62,6%, los jueces dejan en libertad al 48,5% de ellos. Estos errores en la clasificación de los detenidos indican que existen potenciales ganancias de bienestar si se utilizan las predicciones del algoritmo”.

Los acusados a los que la máquina había señalado como muy peligrosos demostraron serlo: tras quedar libres por decisión del juez, la mayoría o no apareció en el juicio o siguieron delinquiendo. Incluso un pequeño porcentaje de ellos cometió alguno de los crímenes más graves (asesinato, violación y robo).

Si los magistrados hubieran seguido las indicaciones de la máquina, según este estudio, “se podría haber conseguido reducir el porcentaje de crímenes un 24,7% manteniendo la misma tasa de puesta en libertad de los jueces (del 74% de los detenidos)”. Simplemente se habrían quedado en la cárcel los que realmente eran más peligrosos.

El paper es muy interesante ya no solo por sus llamativas conclusiones (que no varían mucho cuando se toman datos a nivel nacional), sino porque ofrece un recorrido por todas las preguntas que se plantearon los investigadores para asegurarse de que las predicciones del algoritmo eran correctas. ¿Es posible que el juez tenga en cuenta otro tipo de información no observable (aspecto físico, situación laboral y familiar del acusado…)? ¿Se incrementan las diferencias raciales siguiendo el consejo de la máquina? ¿Por qué fallan los magistrados? ¿Tienen otro tipo de objetivos que el algoritmo no considera? ¿Fijan los jueces fianzas demasiado bajas?

El algoritmo salió muy bien parado de todas estas preguntas, así que según los autores, sus predicciones podrían ser de gran utilidad al sistema judicial. Los tribunales podrían utilizarlos como un sistema de alerta.

“Cuidado señor juez, el programa cree que este acusado tiene un alto riesgo de crimen”. Un cambio más dramático sería que el algoritmo clasificara al detenido y ofreciera una solución sobre dejarlo libre o mandarlo a la cárcel. Sería el equivalente al piloto automático de los aviones. El magistrado siempre tendría la opción de coger el volante y corregir el rumbo.

“Reducir la población en la cárcel y prisión sin incrementar la tasa de criminalidad es una prioridad política. Tradicionalmente, los estudios empíricos económicos en este ámbito se han centrado en cuestiones de causalidad como identificar factores de prevención o medidas de rehabilitación. Nuestro análisis plantea un enfoque diferente: la predicción.”

Las empresas privadas utilizan esta técnica constantemente: predicen qué consumidor es más receptivo a su publicidad, a quién se le puede dar una cobertura sanitaria o un crédito, a qué usuarios les puede gustar determinada película o canción... Los recursos públicos se podrían optimizar si fuéramos capaces de predecir cuestiones como cuáles son los alumnos con mayor riesgo de dejar los estudios, cómo organizar de manera más efectiva las patrullas de policía, a qué restaurante mandamos a los inspectores sanitarios. El machine learning ya ha empezado a ofrecer respuestas a estas preguntas.

Pero este arma predictiva en manos de un gobierno puede generar dudas, en muchos casos éticas. ¿Dejamos que los cálculos de una máquina determinen cuestiones importantes como la asignación de recursos humanos y monetarios en función de sus predicciones? La transparencia será fundamental para confiar y aceptar este tipo de decisiones automatizadas, tal y como reclamó recientemente Elon Musk entre otras muchas voces. Por eso la Unión Europea ya ha preparado una ley que entrará en vigor en 2018 por la que tendremos derecho a pedir explicaciones sobre la decisión que una máquina haya tomado sobre nosotros.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_