Ir al contenido

Los talentos invisibles en la era de la inteligencia artificial

Pensamiento crítico, adaptabilidad, creatividad tecnológica... Las altas capacidades en IA están cambiando qué significa tener talento, pero los sistemas educativos y laborales no consiguen reconocerlo a tiempo

El impacto que la inteligencia artificial tiene ya en todas las esferas de nuestra vida nos enfrenta a una curiosa paradoja: nunca había sido tan fácil demostrar lo que una persona es capaz de hacer con la tecnología pero, a la vez, nunca había sido tan difícil saber quién tiene realmente talento. La IA —y en especial la IA generativa— ha multiplicado las posibilidades de crear, programar, analizar o resolver problemas complejos, pero también ha puesto en evidencia una grieta incómoda: que los sistemas educativos y laborales siguen midiendo con reglas pensadas para otro tiempo. Una brecha que, para los expertos, se percibe cada día en aulas y empresas.

Hay estudiantes que, por ejemplo, entienden cómo funciona una IA sin haber protagonizado un itinerario académico brillante. O profesionales que no encajan en un currículum clásico, pero que son capaces de detectar errores, proponer soluciones inesperadas y aprender solos lo que otros necesitan cursos enteros para asimilar. Talentos, en uno y otro caso, que no siempre destacan en exámenes, entrevistas o procesos de selección, pero que, cuando tienen acceso a las herramientas adecuadas, obtienen resultados muy por encima de lo esperable.

Ese conjunto heterogéneo y difícil de clasificar empieza a describirse como altas capacidades en IA y TIC (Tecnologías de la Información y la Comunicación): habilidades avanzadas que combinan comprensión tecnológica, pensamiento crítico, creatividad y una gran adaptabilidad. El problema, señalan desde la Universitat Oberta de Catalunya (UOC), es que siguen pasando desapercibidas justo donde deberían detectarse antes.

Más allá del dominio técnico, estas altas capacidades se manifiestan en formas de pensar y crear poco convencionales: personas capaces de explorar soluciones inesperadas, de combinar disciplinas distintas y de cuestionar el funcionamiento de una herramienta en lugar de simplemente limitarse a usarla. No se trata solo de saber programar o manejar plataformas digitales, sino de entender, imaginar y adaptar la tecnología a contextos nuevos, con una creatividad que no siempre encaja en los marcos académicos o profesionales tradicionales.

Talento avanzado, pero fuera de plano

Cuando se habla de altas capacidades, el imaginario colectivo sigue anclado en la superdotación clásica: personas con unos cocientes intelectuales elevados, expedientes brillantes y un rendimiento académico sostenido. Pero en el ámbito de la inteligencia artificial ese molde se queda francamente corto. Ese talento, además, se expresa muchas veces a través de formas de creatividad difíciles de encajar y de evaluar con pruebas estandarizadas, pero que resultan muy valiosas cuando se trata de explorar usos nuevos de la tecnología o detectar errores que otros pasan por alto.

En muchos casos, además, estas capacidades se manifiestan a través de rasgos que el sistema educativo no siempre sabe leer bien: una fuerte tendencia a la hiperfocalización en temas de interés, una gran autonomía para aprender por cuenta propia o facilidad para proponer soluciones creativas que se salen del guion previsto. Son perfiles que pueden profundizar durante horas en un problema concreto, explorar caminos alternativos o avanzar a su propio ritmo, siempre que encuentren un entorno que no penalice esa diferencia. En ese contexto, la familia suele desempeñar un papel clave como espacio de seguridad y acompañamiento, especialmente cuando la escuela no ofrece aún respuestas adaptadas.

“No estamos hablando solo de personas que saben usar herramientas de inteligencia artificial, sino que también entienden cómo funcionan, por qué fallan y cómo se pueden forzar para obtener mejores resultados”. La advertencia la hace Carles Gallel, profesor de los Estudios de Informática de la UOC, y resume bien el núcleo del debate. La IA —insiste— no piensa, sino que predice. Y precisamente por eso, la diferencia no está en quién la usa más rápido, sino en quién sabe cuestionarla.

Ese tipo de comprensión profunda no siempre se traduce en buenas notas ni en trayectorias académicas convencionales. Muchos de estos perfiles son autodidactas, otros presentan formas de aprendizaje no lineales, y algunos pertenecen a colectivos neurodivergentes (como personas con altas sensibilidades, con Trastorno por Déficit de Atención e Hiperactividad (TDAH) o síndrome del espectro autista, por ejemplo) a los que el sistema educativo tradicional sigue teniendo dificultades para acompañar. “El problema no es que no tengan talento —explica Gallel—, es que el modelo actual no está preparado para detectarlo ni para explotarlo”.

La paradoja se agrava porque la IA generativa actúa como un amplificador: no crea estas capacidades, pero las hace visibles. De pronto, quien sabe formular buenas preguntas, detectar incoherencias o combinar conocimientos de distintos ámbitos obtiene unos resultados espectaculares. El talento ya estaba ahí; ahora simplemente se nota más.

Cuando el sistema no sabe qué mirar

El desencaje empieza pronto. Aulas con ratios elevadas, metodologías homogéneas y evaluaciones centradas en la repetición de contenidos dejan poco margen para identificar habilidades que no se expresan de forma estándar. “Un profesor que tiene que atender a 20 o 30 alumnos a la vez, al final prepara la clase para un perfil medio”, señala Gallel. En ese contexto, quienes aprenden más rápido, de forma distinta o con intereses muy específicos tienden a aburrirse, desconectar o incluso generar conflicto.

La tecnología, paradójicamente, podría ser parte de la solución. No para sustituir al docente, sino para ayudar a detectar patrones, intereses y capacidades que hoy pasan inadvertidos. “Con los datos adecuados, sería posible diseñar itinerarios más personalizados, detectar abandonos tempranos o acompañar mejor a cada estudiante”, plantea. El problema es que el sistema aún no ha hecho esa transición de forma decidida.

Ese desencaje no desaparece al salir del aula. Se traslada, casi intacto, al mercado laboral. Y ahí entra una segunda mirada, la de Elena González-Blanco, experta en inteligencia artificial y profesora asociada e investigadora del CGC en IE University. Desde su experiencia entre la investigación y la empresa, el problema no es solo educativo, sino cultural.

“El mercado está cambiando tan rápido que a las propias empresas les cuesta estar al día”, explica. En ese contexto conviven, y a veces se confunden, perfiles muy distintos: desde los altamente técnicos (que desarrollan modelos y algoritmos) hasta perfiles híbridos que, sin programar, son capaces de impulsar estrategias de negocio gracias a un uso avanzado de la IA: “Estos últimos son probablemente los más difíciles de identificar, porque no encajan en un job description estándar: combinan el conocimiento del negocio con un dominio muy actualizado de la tecnología”. Y ahí vuelve a aparecer la invisibilidad: no porque falte el talento, sino porque no hay categorías claras para nombrarlo.

Ese problema de clasificación tiene efectos muy concretos cuando estos perfiles llegan a la empresa. Está claro que la IA permite hoy hacer más cosas en menos tiempo, pero eso no significa necesariamente que se entienda mejor lo que se está haciendo. Porque producir rápido con una herramienta no equivale a saber usarla con criterio, ni a comprender sus límites o sus riesgos. En un mercado cada vez más presionado por la rapidez y la productividad, el foco tiende a ponerse en el resultado visible, no siempre en el proceso ni en el razonamiento que hay detrás.

Para González-Blanco, aún es pronto para llegar a conclusiones cerradas. La adopción de la inteligencia artificial, explica, no es solo un cambio tecnológico, sino un proceso de aprendizaje y de transformación cultural que todavía está en marcha en muchas organizaciones, y que no afecta solo a los perfiles más técnicos. “La clave está en combinar pensamiento crítico desde el lado del negocio con personas que entiendan bien la tecnología y su evolución”, señala. La IA, insiste, no funciona como una solución automática ni como un atajo de productividad: “No es un ‘corta y pega’, sino que exige un ejercicio constante de interpretación, de cuestionamiento y de ajuste para que realmente amplifique la inteligencia humana”, añade.

Al igual que ocurre en el aula, también en la empresa la velocidad puede ocultar capacidades más profundas. Poder manejar herramientas avanzadas no garantiza saber cuándo no usarlas, cómo contrastar sus resultados o en qué contextos pueden introducir sesgos o errores. Y, sin embargo, esas habilidades —menos visibles o medibles— son las que marcan la diferencia cuando la tecnología deja de ser un apoyo puntual y se integra en la toma de decisiones.

El riesgo, por lo tanto, es que se amplíe la brecha entre quienes utilizan la inteligencia artificial de forma acrítica y quienes desarrollan una relación más reflexiva con ella: “Estar al día en IA requiere curiosidad, formación continua y la capacidad de salir de la zona de confort”, apunta González-Blanco. Pero no todos parten del mismo punto ni cuentan con los mismos recursos para hacerlo, y ahí el papel de las empresas resulta decisivo.

Como ocurre también en el sistema educativo, el talento no siempre se pierde por falta de capacidad, sino porque no se reconoce ni se valora a tiempo: se trata de perfiles que no encajan en descripciones de puesto estándar, que no responden a trayectorias lineales o que combinan competencias técnicas y de negocio de forma poco convencional, y que por eso siguen quedando fuera del radar. A veces se reenganchan más tarde, a base de autoformación o aprendizaje dentro de la propia empresa, pero otras, simplemente, se diluyen.

Un reto que ya no es tecnológico

Reconocer estas capacidades no es solo una cuestión de justicia educativa o de inclusión laboral: es también una cuestión estratégica, como coinciden las distintas miradas que atraviesan este debate. En un contexto en el que la inteligencia artificial se integra de forma acelerada en el aprendizaje, el trabajo y la toma de decisiones, empieza a perfilarse una idea clara: la diferencia no la marcará quién domine antes una herramienta concreta, sino quién sea capaz de entenderla, cuestionarla y adaptarse a su evolución constante.

Ese es el punto en el que confluyen educación y empresa. Por un lado, la necesidad de sistemas capaces de detectar talento más allá del perfil medio; por otro, el reto de aprender a reconocerlo y desarrollarlo también en el ámbito laboral. Y, en ambos casos, la urgencia compartida de no confundir velocidad con criterio ni productividad con comprensión.

La IA ha hecho visibles habilidades que antes permanecían en segundo plano. Por eso, el desafío que asoma ahora no es tanto tecnológico como humano: saber reconocer a tiempo quién puede pensar con la tecnología y no solo usarla. De ello dependerá no solo el futuro profesional de muchas personas, sino también la capacidad colectiva de innovar sin dejar talento atrás.

¿Puede la "ausencia de IA" convertirse en un sello de prestigio?

En un contexto de uso generalizado de la inteligencia artificial, empieza a abrirse paso una pregunta quizá inesperada: ¿podría convertirse la ausencia de IA en un valor diferencial? Según la Universitat Oberta de Catalunya, crece el interés por identificar y distinguir los contenidos creados exclusivamente por personas, no como rechazo a la tecnología, sino como una forma de reforzar la transparencia y la confianza. Diversos estudios citados por la UOC apuntan a que, aunque el uso de herramientas de IA es mayoritario, una parte significativa de la ciudadanía quiere saber cuándo un texto, una imagen o una obra cultural ha sido generada por una máquina y cuándo responde a una autoría humana.

Ese debate ha empezado a traducirse en iniciativas concretas, como sellos o etiquetas que certifican que un contenido se ha producido sin recurrir a inteligencia artificial. Desde la UOC se subraya que estos distintivos no buscan frenar la innovación, sino poner en valor lo humano en ámbitos donde el contexto, la intención o los valores importan tanto como el resultado final. Según explica Alexandre López Borrull, profesor e investigador de los Estudios de Ciencias de la Información y de la Comunicación de la institución catalana, la autoría humana podría convertirse en un criterio de calidad y prestigio añadido precisamente porque la IA ya es capaz de generar contenidos de forma masiva.

Archivado En