Roxana Daneshjou: “Un sesgo muy claro en dermatología es que la IA no se entrena con imágenes de pieles morenas o negras”
Subdirectora del Centro de Excelencia para la Salud y Farmacogenómica de Precisión y directora de informática en el Grupo de Investigación Intervencionista e Innovación de la Piel de Stanford, Daneshjou no cree que la IA destruya puestos de trabajo en el sisetma sanitario. Según ella, se integrará en el sistema de atención médica para trabajar en colaboración con los profesionales, pero “para nada estamos cerca de la precisión necesaria para que desplace a médicos y sanitarios”.
Profesora, doctora e investigadora Roxana Daneshjou es una referencia presente proyectada al futuro. Médica en una clínica de Palo Alto (no lejos de la californiana Universidad de Stanford donde se formó), y al mismo tiempo es una experta en la aplicación de los modelos IA en su especialidad en particular, dermatología, y en la salud en general, con numerosos artículos científicos publicados sobre sus promesas y peligros.
Todavía no son comunes perfiles como el suyo, que combina la práctica de la medicina con la investigación en IA...
Estudié bioingeniería en la universidad y ya entonces me interesaba el uso de la tecnología para mejorar la atención médica. Cuando aprendí sobre aprendizaje profundo y las formas tempranas de IA, me di cuenta de que, como la dermatología es muy visual, la visión computerizada podría tener un gran impacto en nuestro campo. Por eso quise entender cómo se construyen y prueban los modelos, y comprender los aspectos técnicos mientras practicaba la medicina. Es algo que me ayuda a entender los problemas del mundo real y a pensar cómo podemos usar la tecnología para abordarlos.
¿También en este campo existe un exceso de expectativas?
Todo lo que sea afirmar que vamos a reemplazar a los médicos se puede considerar hype [abreviatura en inglés de hipérbole, que ha pasado a la jerga tecnológica como sinónimo de reacción emocional exagerada]. Pero también existen muchas oportunidades, como en herramientas que ayuden con las tareas administrativas o sirvan de apoyo a la toma de decisiones. Muchas, si se prueban correctamente, serán útiles.
¿Cuáles tienen más potencial?
Por ejemplo, el modelo que pueda escuchar la conversación entre médico y paciente y luego adjuntar automáticamente la documentación médica necesaria. Permitiría a los sanitarios dedicarle más tiempo al paciente en lugar de preocuparse por el papeleo. También son interesantes las herramientas que visionan imágenes como rayos X o resonancias magnéticas para ayudar a identificar enfermedades y asistir al médico que lee esas imágenes. Existen muchas más posibilidades, pero lo más importante es que todo esté validado y para ello hacen falta ensayos clínicos prospectivos de seguimiento a los pacientes para asegurarnos de que no hay efectos dañinos y todo funciona bien. También hacen falta evaluaciones para ver qué tal funcionan esas herramientas en el mundo real.
Me preocupan las aplicaciones que usan directamente los pacientes. Por ejemplo, en dermatología hemos visto ‘apps‘ móviles que aseguran diagnosticar cánceres de piel. De la mayoría no sabemos si funcionan, si han sido probadas o validadas
¿Algunas de esas herramientas podrían resultar peligrosas?
Me preocupan las aplicaciones que usan directamente los pacientes. Por ejemplo, en dermatología hemos visto apps móviles que aseguran diagnosticar cánceres de piel. De la mayoría no sabemos si funcionan, si han sido probadas o validadas como es debido, pero se pueden descargar fácilmente y tienen el potencial de causar mucho daño si fallan al tranquilizar al paciente o le preocupan sin necesidad. No existen modelos dermatológicos capaces de identificar estas cosas de forma autónoma, sin un médico que revise las imágenes.
¿Siempre debe existir la supervisión de un doctor?
Ciertos modelos IA en dermatología pueden ayudar al médico de atención primaria y aumentar su precisión, pero la intuición y la sabiduría de ese doctor siguen teniendo la decisión final. Por ejemplo, un estudio ha mostrado cómo estas herramientas pueden mejorar la habilidad de los sanitarios generalistas para detectar enfermedades de la piel. Que estas herramientas ayuden al médico de cabecera a hacer un mejor trabajo y descubrir quién necesita cita, puede ser muy útil.
¿La IA destruirá puestos de trabajo?
No lo creo, al menos en este sector y de momento. Se integrará en el sistema de atención médica para trabajar en colaboración con los profesionales sanitarios, pero para nada estamos cerca de la precisión necesaria para que desplace a médicos y sanitarios.
Hay ejemplos de IA impresionantes, pero todavía estamos en las primeras fases de descubrir cómo aplicarla al cuidado del paciente
Quizá no los sustituya, ¿pero les obligará a actualizarse y aprender a manejarla?
Sí, tendrán que entrenarse. Siempre se dice que los médicos serán desplazados por otros médicos, los que entiendan y sepan usar la tecnología. Es emocionante ver cómo las nuevas generaciones de médicos y sanitarios muestran interés por estas herramientas. Hace falta más, pero ya existe cierta conciencia de que van a ser algo importante, que hay que entenderlas y a ayudar a construirlas.
¿Y los ingenieros? ¿Tendrán que formarse en ética y medicina?
Precisamente, como persona que trabaja entre esa parte tecnológica y la práctica de la medicina, me parece extraordinariamente importante, a la hora de diseñar un algoritmo, entender el problema que estás intentando solucionar y cómo se manifiesta en el mundo real. Varios estudios ya demuestran que, si no tienes en cuenta los sesgos y el factor social, puedes construir algoritmos que causen daño a poblaciones vulnerables.
¿Puede poner un ejemplo?
Uno muy claro en dermatología es que muchos modelos no se entrenan con imágenes de enfermedades en pieles morenas y negras, y por eso son muy malos identificando enfermedades y cánceres en esos pacientes. Es un caso de sesgo en su diseño, porque sí pueden hacerlo con pieles blancas.
¿Los pacientes están preparados para entender que el doctor ChatGPT no existe?
Ya existía desinformación en Google, obviamente, pero cuando hablas con ChatGPT puede que te dé datos erróneos o alucine diciendo cosas que no son verdad. Es un riesgo grande con este tipo de modelos de lenguaje.
¿Supone un problema para la privacidad que se sumen empresas como Google o Microsoft?
La privacidad de los pacientes es enormemente importante y cualquier compañía que trabaje en este campo debe ser consciente y protegerla. Cómo se va a usar la información de los pacientes, quién va a tener acceso a ella… todo debe tratarse con la máxima transparencia.
¿Deberían estar informados si se usa IA en los diagnósticos?
También aquí es necesaria la transparencia, los pacientes deberían saber exactamente cuándo se usa la IA y tener el derecho a pedir una segunda opinión humana, sin IA.
¿Y podrán tener esa segunda opinión?
Es una buena pregunta. Creo que aún no lo sabemos. Por ejemplo, algunas compañías de seguros están utilizando IA para denegar coberturas y hasta ahora no hay mecanismos para anular esas denegaciones generadas por IA. De hecho, ya hay un litigio al respecto en EEUU.
¿Existe el riesgo de dos niveles de cobertura sanitaria, uno con acceso a médicos humanos y otro con acceso solo a modelos IA?
Puede ser un problema en países sin sanidad pública universal, como EE UU. Es decir, que poblaciones vulnerables, sin acceso a la atención médica, tengan una especie de valoraciones con IA, mientras que las personas con recursos accedan a la mejor cobertura. La tecnología puede ser un lujo solo al alcance de personas con capacidad de acceso, pero también puede usarse para prestar una atención peor que las interacciones humanas recibidas por las personas que no tienen ese acceso.
A pesar de estas cautelas, ¿estamos al comienzo de una revolución?
Creo que la IA cambiará la atención médica y espero que para bien. En el mejor escenario posible, reduciremos la carga de los profesionales, les ayudaremos a ofrecer una atención más precisa y puntual, justa y no dañina para los pacientes, con un mejor resultado. Esa es la esperanza. El peor escenario es el de herramientas que no funcionan o tienen sesgos y terminan dañando a poblaciones vulnerables con una atención de calidad inferior… Respecto al futuro, no soy ni optimista ni pesimista, soy realista. Veo las oportunidades y soy consciente de los peligros potenciales.