Mi otro yo y la crisis de Freud
Una inteligencia artificial cada vez más personalizada plantea un dilema central: crea una réplica de nosotros mismos que reposa en un algoritmo indescifrable e invisible al común de los mortales
Abundan estos días incansables esfuerzos para alcanzar una inteligencia artificial ética. Hemos celebrado el aniversario de ChatGPT, el chatbot que —ni más ni menos— ha logrado instalarla en la charla del café del barrio.
En un periodo convulsionado como pocos, hay un nuevo actor indiscutible: la inteligencia artificial, ...
Abundan estos días incansables esfuerzos para alcanzar una inteligencia artificial ética. Hemos celebrado el aniversario de ChatGPT, el chatbot que —ni más ni menos— ha logrado instalarla en la charla del café del barrio.
En un periodo convulsionado como pocos, hay un nuevo actor indiscutible: la inteligencia artificial, una herramienta que llegó para cambiarlo todo, también a nosotros mismos. Atravesamos una crisis de identidad sin precedentes; aunque nos cueste reconocerlo, amenaza con desplazarnos impunemente del centro de la escena sin siquiera pedirnos permiso. En palabras de Ray Kurzweil, la singularidad tecnológica (el momento en el que la inteligencia humana es superada por la artificial) está cerca.
En esta crisis de identidad del ser humano, los debates morales están a la orden del día: ¿quiero la tecnología? Sí, pero ¿hasta qué punto y a qué costo? Más preguntas que respuestas.
Desde hace siglos, el transhumanismo ha impulsado la reflexión sobre el mejoramiento tanto físico como psicológico de la condición humana mediante la incorporación de la tecnología. El summum: el poshumano, un ser con capacidades ampliamente extendidas. Las prótesis robóticas o descubrimientos como CRISPR combinados con la inteligencia artificial (IA) hacen que esto resulte cada día más próximo.
Son justamente los recientes neuroderechos, la nueva generación de los derechos humanos, los que intentan ponerle un coto. El peligro no está en lo consciente y palpable. Para muestra basta un botón: Elon Musk y su empresa Neuralink —ya con autorización de la FDA estadounidense para realizar pruebas en humanos— quieren colocarnos un chip en el cerebro y fusionarnos con la IA antes de que “se convierta en algo tan poderoso que destruya a la raza humana”. El riesgo real está en lo imperceptible: algoritmos que logran influir en nuestros gustos, parejas, voto sin que podamos darnos cuenta.
Hemos llegado a la fiesta de cumpleaños de ChatGPT con un regalo sorpresa: FreedomGPT, un modelo similar a aquel, pero con una diferencia un tanto “peculiar”: no tiene ningún tipo de censura. Si le pedimos que describa un modelo de negocio para comercializar armas, lo hará. ¿Adónde nos conducirá?
La señal de la carretera advierte de que el camino lleva hacia la personalización absoluta. Se acaba de lanzar PinAI, un dispositivo del tamaño de un tamagotchi conectado a la red móvil con el cual podemos hacer un sinnúmero de funciones a través de un asistente de voz con IA. O las gafas con IA (Ray-Ban Smart Glasses), que constituirán un filtro permanente entre la realidad y lo que vemos y hasta podrán leer nuestro iris. FreedomGPT es la frutilla del postre de este cuento de hadas: un chatbot a nuestra imagen y semejanza al que podremos, sin ningún tipo de tapujos, hacerle nuestras peores confesiones y exigirle nuestros más culposos deseos. Este diálogo no solo dejará al desnudo nuestras infames miserias, sino también, y más peligroso aún, las potenciará (el conocido “bucle de retroalimentación pernicioso”).
Así, la IA cada vez más personalizada presenta un dilema central. No se trata de un alter ego, sino más bien de nuestro doble de riesgo. ¿Qué pensaría Freud sobre esto? Se crea una dúplica de nuestro yo, un otro yo que reposa en un algoritmo indescifrable y, sobre todo, invisible al común de los mortales. Hoy, más que nunca, “lo esencial es invisible a los ojos”.
¿Aceptaríamos controlar nuestra réplica para ser, finalmente, conscientes de nuestros prejuicios? ¿Cómo?
El primero de los escollos lo instala la cuestión de la privacidad: ¿cómo consentir el control de ese sistema que sabe más de nosotros que nosotros mismos? ¿Queremos realmente ser conscientes de nuestros sesgos?
Otro interrogante está vinculado a cómo afecta esa simbiosis con nuestro otro yo a nivel psíquico (verbigracia, la autopercepción), a nuestra vida en relación y cómo contribuye a la radicalización de nuestros pensamientos (verbigracia, la visión de túnel). La preocupación se incrementa si pensamos en niños, niñas y adolescentes que están construyendo su personalidad en un mundo digital y jamás tuvieron el contraste con el analógico, como lo tuvimos por ejemplo nosotros los mileniales, algunos centeniales y las generaciones anteriores.
Podemos proponer dos soluciones. Por un lado, la educación. Casos como el de Almendralejo, donde los mismos niños de varios colegios usaron la IA para crear imágenes desnudas de sus compañeras, nos enseñan que prohibir es absurdo. Educar y concienzar resulta obligatorio.
Por el otro, la regulación (como la ley de IA de la Unión Europea). La reticencia a aceptarla en algunos casos es espeluznante. No se trata de prohibir a troche y moche, sino de prevenir y sancionar en caso de incumplimiento. La innovación no está en peligro si creamos normas con base en un enfoque interdisciplinario y elásticas al crecimiento exponencial de la tecnología. Tampoco se trata de que nuestras latitudes queden fuera. Paradójicamente, las industrias más reguladas (la banca, las farmacéuticas) son de las que más se lucran e innovan.
El camino pasa por auditar los algoritmos de alto riesgo. Necesitamos evaluarlos para conocer qué principios los guían, qué variables los gobiernan y qué clase de predicciones hacen. Hoy nos parece impensado; en el futuro, será la regla.