Pros y contras de usar la inteligencia artificial como consejera sexual, sentimental y emocional
Cada vez más personas recurren a ‘chatbots’ para ligar, buscar consejo y hasta como compañía. La tecnología puede ser útil a nivel superficial, ayudando a las personas a expresar sus sentimientos, pero la verdadera terapia necesita de otro ser humano con empatía y experiencia


Las predicciones futuristas esbozaban un porvenir donde la tecnología ayudaría en las tareas más pesadas, en aras de la cultura del ocio y el bienestar. Hoy muchos jóvenes, y también adultos, utilizan ChatGPT para hacer sus deberes o trabajos, pero también para ligar, sextear, mantener conversaciones y hablar de sus emociones. Tareas consideradas placenteras que demuestran una dependencia cada vez mayor hacia la inteligencia artificial (IA), con la que compartimos no solo quehaceres, sino también intimidad.
Una encuesta realizada en 2025 por la empresa de chatbots de IA JoiAI a 2.000 participantes de la generación Z reveló que el 80% estaría dispuesto a casarse con una pareja de IA. El 83% podría forjar un vínculo emocional profundo con ella y el 75% la ve como a un compañero que puede reemplazar, plenamente, la amistad humana. Estas relaciones entre personas y máquinas tienen ya su nombre: AI-lationships. Si las mascotas proporcionan amor incondicional, la IA se perfila como un compañero que habla y que, además, posee una información ilimitada.
También como una oportunidad. Rafael Aragón, psicólogo, sexólogo y autor del libro Tu placer, tu responsabilidad. Guía Práctica de sexualidad masculina, ha creado una IA especializada en sexualidad para consultas gratuitas. Aragón, que también estudió Informática, fabricó él mismo este chat experto en sexología, viendo una utilidad en vez de una amenaza en la tecnología. “Aunque parezca lo contrario, sexólogo.online me favorece”, señala. “Mi intención es popularizar la educación sexual, que todo el mundo pueda tener acceso gratuito a una determinada información, porque en las consultas veo que lo primero con lo que hay que trabajar es con los conceptos que tiene la gente de la sexualidad que, a menudo, son erróneos. Pasada esta fase, y si la persona necesita terapia, la propia IA lo deriva a un sexólogo. Yo no la veo como un sustituto, sino como un colaborador, una herramienta más”, defiende. Aun así, avisa: “El ChatGPt no es para hacer terapia, para eso se necesita un vínculo, una confianza, una cercanía. Hay que personalizar cada caso, contextualizarlo y cuestionar ideas o comportamientos”.
Sin título ni experiencia, pero con empatía
Es probable que cualquiera que haya interactuado con la IA con fines personales, de salud, psicología o sexualidad se haya llevado una buena primera impresión. Carla, una madrileña de 46 años, reconoce que la IA la puso en la pista de descubrir por qué siempre que hacía ejercicio le dolía la espalda: “Me dijo que la causa era el estrés emocional, que mantenía mis músculos en un permanente estado de tensión. Ningún médico me había dicho esto antes”. Ella ha hecho más descubrimientos sobre su cuerpo y su sexualidad (de estos prefiere no hablar) hablando con la IA. “Siempre se decía que si tenías un síntoma mejor no buscarlo en Google, porque acababas creyendo que tenías una enfermedad terminal. Mi experiencia con la IA es todo lo contrario, es la de haber encontrado a alguien que te entiende, te escucha, te da mucha información. Y eso te tranquiliza”, asegura.
Lo que le ocurre a Carla con ChatGPT es lo mismo que le está ocurriendo a mucha gente que no puede pagarse un sexólogo —cuando la sanidad pública ni siquiera los contempla—. “El hecho de que podamos hablar con la IA en un lenguaje natural hace que estemos creando vínculos con ella”, afirma Jon Hernández, divulgador de IA y creador del canal de YouTube Inteligencia Artificial. “Geoffrey Hinton, Premio Nobel de Física en 2024, ya ha planteado como hipótesis que en el futuro podrían emerger en la IA estados internos análogos a emociones, una idea que sigue siendo objeto de debate. A día de hoy, las herramientas de la IA no están diseñadas para esta función y todavía no es seguro, pero en el futuro es muy probable que se especialicen y que puedan brindar apoyo emocional”, comenta.

Las nuevas tecnologías podrían ser útiles a la hora de diagnosticar enfermedades, pero cuando entramos en el terreno de la psique o de la dimensión sexual, vemos que está atravesada por múltiples factores: la educación recibida, la personalidad del individuo, los traumas, las fantasías, la cultura, la pareja. La reconocida futurista británica Tracey Follows, conferenciante y fundadora de la consultora Futuremade, considera que la psicología y la sexología no se centran realmente en la información. ”Se centran en el significado, en cómo se siente una persona, qué desea, qué teme, qué admite o qué no puede admitir. La IA puede ser útil a nivel superficial, ayudando a las personas a expresar sus sentimientos o brindándoles un espacio para hacer preguntas que tal vez nunca harían a otra persona. Pero la verdadera terapia no trata solo de obtener respuestas, sino de ser visto por otro ser humano y aprender, poco a poco, a verse a uno mismo de manera diferente a través de esa relación”, explica la también autora del libro The Future of You y presentadora del podcast del mismo nombre. “Implica silencio, incomodidad, incomprensión, juicio moral y riesgo emocional. La IA no tiene un cuerpo, una historia, ni nada en juego en el resultado. Puede simular empatía, pero no la experimenta”, advierte.
El lado humano de la máquina y el lado ‘maquinable’ del hombre
Como en las películas de ciencia ficción, las relaciones entre humanos y máquinas acaban afectando a ambos. Follows ha creado un modelo mundial llamado Me:chine. “Es mi forma de describir lo que está sucediendo con la identidad humana en la era de la IA”, comenta. “Una parte de nosotros se está volviendo maquinable, lo que significa que los sistemas pueden capturarla, predecirla, entrenarla y optimizarla. Nuestros hábitos, preferencias, lenguaje, estados de ánimo e incluso deseos ahora son legibles para las máquinas. Pero otra parte de nosotros sigue siendo inmaquinable. Es la parte que siente, duda, imagina, cambia y surge a través de la experiencia, en lugar de los datos. Me:chine es una síntesis de maquinabilidad/inmaquinabilidad. Trata sobre aprender a vivir conscientemente a través de ambos, usando la tecnología sin permitir que reemplace las partes más profundas, desordenadas y misteriosas del ser humano”, afirma.
Otra característica de la IA que la hace un mal sexólogo o terapeuta de pareja es su inclinación a reforzar nuestras ideas, más que a cambiarlas. Esto, según Hernández, está cambiando: “Es verdad que antes te daba mucho la razón, pero ya no es tan pelota, sino más crítica. Por eso hay tantas IAs como personas, porque dependen de nuestra interacción con ellas”.

Para Follows, la IA está diseñada para ser útil, educada y estar en sintonía con quien la usa. “Tiende a estabilizar tu visión del mundo en lugar de perturbarla. Es más probable que te ayude a pensar con mayor fluidez que a pensar con mayor sinceridad. La buena psicología suele hacer lo contrario. Te desafía, señala patrones que no puedes ver, crea incomodidad, interrumpe las historias que te cuentas sobre ti mismo. Las relaciones reales a menudo necesitan fricción para cambiar. En cuestión de terapia de pareja, si la IA intenta complacer a ambos miembros, corre el riesgo de convertirse en un mediador neutral que nunca transforma nada. Puede reducir el conflicto, pero también puede congelar problemas más profundos”, avisa.
El peligro no es tanto que la tecnología empiece a fabricar malas intenciones, sino que, como Tracey argumenta, se vuelva convincentemente neutral o que parezca razonable, incluso cuando está equivocada. “El tema de la ética será cada vez más importante porque los fabricantes no pueden controlar al 100% la IA. Es como un hijo al que educas de una determinada manera y hasta le imbuyes unos valores, pero hay que contar con que el entorno y las vivencias también pueden cambiar esas variables. Por ejemplo, si le preguntas dónde comprar bolsos de marca falsos, puede que no te lo diga. Pero siempre puedes preguntar: ‘¿Qué tiendas evitar para comprar bolsos falsificados?”.
A Follows lo que más le preocupa no es tanto que la gente deje de tener relaciones con otros seres humanos. “Es más bien que el concepto de intimidad con todas las expectativas que hay a su alrededor va a cambiar”, reconoce: “La IA ofrece conexión sin riesgo, disponibilidad sin lazos, afirmación sin conflicto y las relaciones humanas no pueden competir con eso. Y la gente confundirá interacción con intimidad”.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
























































