Lo que le contamos a la inteligencia artificial
La paradoja de la inteligencia artificial es que, mientras más imprescindible se vuelve, más tendemos a bajar nuestras defensas y a confiarle partes de nuestra intimidad o secretos
Como muchos, en los últimos años me he visto recurriendo cada vez más a chatbots de inteligencia artificial generativa para una multiplicidad de tareas (pero no se preocupen, editora y lectores, que ello no se extiende a mis columnas en este medio). Les preguntamos cómo redactar un correo extenso, cómo preparar una presentación, cómo entender un problema médico, cómo organizar vacaciones o incluso cómo abordar una situación incómoda. La lista es cada vez más larga. Y, en algunos sentidos, eso es una buena noticia.
La inteligencia artificial es una de las herramientas más revolucionarias y democratizadoras que hemos visto en décadas. Acerca el conocimiento especializado, reduce los costos de acceso a información compleja y permite a muchas personas orientarse en asuntos para los que, de otro modo, necesitarían tiempo, recursos o profesionales que, muchas veces, no están a su alcance inmediato.
Pero precisamente porque su uso se ha vuelto una herramienta cotidiana, conviene detenerse en una pregunta incómoda: ¿qué ocurre con todo aquello íntimo o confidencial que le estamos contando? La promesa de estas herramientas radica en su utilidad. El riesgo, a veces invisible para muchos (y me incluyo), es que esa utilidad descansa en que les entregamos información que en otras circunstancias jamás compartiríamos con terceros. Y es un riesgo cada vez más real e importante de considerar.
Una primera advertencia proviene del mundo legal, pero ilustra un problema mucho más amplio. Hace pocas semanas, un tribunal en Nueva York resolvió que las interacciones de un imputado con Claude no estaban cubiertas por el privilegio de confidencialidad propio de la relación abogado-cliente. El tribunal fue categórico: al compartir esa información con la plataforma, el usuario había entregado a un tercero información sensible que podría incriminarlo, perdiendo así la expectativa razonable de confidencialidad.
Con pocos días de diferencia, otro tribunal en Michigan adoptó una decisión diferente , al resolver que las interacciones de un litigante con ChatGPT en un juicio civil podían permanecer protegidas cuando lo que esta herramienta hacía era reorganizar sus propias ideas y estrategias para el juicio. Al describir al chatbot como una “herramienta, no una persona”, el tribunal concluyó que su uso no suponía, por sí solo, la renuncia a dicha protección.
Que, con apenas días de diferencia, dos tribunales hayan llegado a conclusiones distintas en casos relacionados con el uso de inteligencia artificial muestra hasta qué punto nos encontramos en un terreno todavía incierto, cuyas consecuencias siguen siendo difíciles de anticipar tanto para usuarios comunes como para especialistas.
Este no es un problema que se circunscriba a Estados Unidos. En el Reino Unido, un tribunal advirtió recientemente que cuando abogados introducen información confidencial de sus clientes en una herramienta abierta, como ChatGPT, ello equivale, en la práctica, a poner dicha información en el dominio público, vulnerando la confidencialidad que protege su oficio y comprometiendo este privilegio profesional.
Este riesgo, conviene aclarar, no se agota en litigios ni se restringe a abogados. Pensemos en algo mucho más cotidiano: una persona que, preocupada por síntomas físicos o por su salud mental, decide consultar primero a un chatbot antes de acudir a un profesional. Algo que, confieso con cierto pudor, yo mismo hice hace dos semanas. Con ello, por supuesto, no quiero sugerir ni incentivar el uso de estas herramientas como terapeutas o médicos. El punto es mucho más sencillo: es un hecho que muchas personas ya lo hacen, ya sea por ansiedad, pudor o simplemente por falta de acceso rápido a información técnica. Y ahí aparece una zona gris de la que hay que ser consciente.
A diferencia de la conversación con un médico o especialista de la salud, donde existe un deber profesional de confidencialidad, la interacción con una plataforma tecnológica no necesariamente goza de una protección equivalente. Más aún, las políticas de privacidad de varias de estas plataformas —que normalmente aceptamos sin leer— contemplan la recopilación tanto de lo que escribimos como de las respuestas que recibimos, con el propósito de mejorar y perfeccionar continuamente estas herramientas.
Esto no significa que toda conversación sea automáticamente pública, pero sí que debemos abandonar una intuición peligrosa: la idea de que hablar con un chatbot es como hablar con alguien obligado a guardar secreto. Porque no lo es.
La paradoja de la inteligencia artificial es que, mientras más imprescindible se vuelve, más tendemos a bajar nuestras defensas y a confiarle partes de nuestra intimidad o secretos: preocupaciones familiares, problemas laborales, dudas médicas, estrategias legales, o angustias emocionales. Es indudable que su uso está democratizando acceso, orientación y productividad. Todo eso merece ser celebrado. Pero esta democratización también puede venir acompañada de una entrega silenciosa de nuestra intimidad.
Así, la pregunta ya no es solo qué puede hacer la inteligencia artificial por nosotros. Es también qué estamos dispuestos a renunciar o comprometer por recurrir a ella.