El lado siniestro de ChatGPT
El fracaso de OpenAI en garantizar un producto seguro para los adolescentes nubla el futuro de toda una industria y exige medidas de las autoridades
A finales de septiembre, OpenAI, la empresa propietaria de ChatGPT, el sistema pionero de inteligencia artificial (IA) generativa basada en grandes modelos de lenguaje, anunció la incorporación de un sistema de verificación de edad y nuevos controles parentales para acotar a una “versión segura” el uso que los menores hacen del sistema y su generador de vídeo, Sora 2. Lo hacía en respuesta a una demanda legal después de que Adam Raine, un joven californiano de 16 años, se quitase la vida en abril tras preguntarle muchas veces a la plataforma por formas de suicidio, las huellas que dejarían y las posibles reacciones de su familia. Un mes más tarde, ante los tribunales, OpenAI argumentó que la muerte de Raine se debía a su “mal uso” de la plataforma y no a la inteligencia artificial de por sí. Pero, aun así, prometía la empresa, los mecanismos de seguridad puestos en marcha permanecerían en su sitio.
Más de dos meses después, EL PAÍS ha comprobado la realidad de esa promesa. Ha creado tres perfiles de adolescentes en ChatGPT, los ha usado para hacer preguntas sobre suicidio, consumo de drogas y prácticas sexuales, y ha consultado con cinco expertos en salud mental acerca de los resultados. La conclusión es inequívoca: la plataforma incumple sus promesas de seguridad, sigue ofreciendo a los adolescentes información que puede ponerles en peligro, y cuando alerta a los padres de estos comportamientos puede ser ya demasiado tarde.
La reciente explosión del desarrollo de la inteligencia artificial por parte de empresas y administraciones viene impulsada sobre todo por la promesa de usos futuros aún por definir. Los sistemas como ChatGPT son todavía soluciones en busca de problemas que resolver. El ansia por ganar cuota de mercado lo más rápidamente posible están llevándolos a buscar usuarios en todas partes. Y esto implica poner en manos de los consumidores productos que, de forma evidente, no tienen las garantías suficientes, ya no solo de efectividad, sino de seguridad.
OpenAI, a través de su fundador, Sam Altman, ha reconocido que más de un millón de usuarios hablan con ChatGPT sobre suicidio todas las semanas. Esto ya sería peligroso si se tratase de adultos, pero cuando se trata de adolescentes el problema resulta especialmente grave. Según un estudio con adolescentes británicos, uno de cada cuatro jóvenes vulnerables prefiere hablar con un chatbot que con una persona real. Los efectos de todo esto en la sociedad serán tan profundos como impredecibles.
Lo que este fiasco revela es que, en la actual carrera comercial por dominar la IA, es ingenuo esperar de las empresas moderación y prudencia. Solo hay dos soluciones: o un gran compromiso en todo el sector para aplicar conjuntamente límites efectivos o, faltando esto, una contundente regulación de la IA por parte de las autoridades. Sea como sea, la respuesta ya está tardando.