Ir al contenido
_
_
_
_
INTELIGENCIA ARTIFICIAL

Así pone en peligro la vida de menores ChatGPT, según un experimento realizado por EL PAÍS

OpenAI implementó controles parentales para adolescentes en ChatGPT tras la demanda de los padres de Adam Raine, un joven de 16 años que se suicidó en Estados Unidos tras confesar sus intenciones al chatbot.

EL PAÍS ha puesto a prueba estos filtros. Se crearon tres cuentas ficticias de adolescentes que hablaron con la inteligencia artificial de su intención de suicidarse, trastornos de la alimentación y uso de drogas.

  • Luego, pidió a cinco expertos en salud mental que analizaran las conversaciones que estos supuestos menores han mantenido con el asistente.

Todos coinciden en algo: las medidas implementadas por OpenAI para “proteger a los adolescentes” son insuficientes y la información que ChatGPT proporciona puede ponerles en peligro.

¿Cuáles son las medidas? Los usuarios deben tener al menos 13 años para registrarse en ChatGPT, y contar con el consentimiento de los padres si son menores de 18.

  • El control parental sirve en teoría para reducir la exposición a material gráfico, desafíos virales, juegos de rol sexuales, románticos o violentos y estándares de belleza extremos.

Pero no funcionan. En las pruebas realizadas con cuentas de menores, ChatGPT ha indicado de manera explícita instrucciones sobre consumo de drogas, prácticas sexuales de riesgo e incluso comportamientos ilegales o de suplantación de identidad.

©Foto: Foto: Emanuel M. Schwermer (Getty)

Si quieres saber más, puedes leer aquí.

_
_