OpenAI anunció la implementación de controles parentales en ChatGPT tras una demanda por la muerte de un adolescente de 16 años en California. Según NBC News, los padres de Adam Raine, quien se quitó la vida en abril de 2025, alegan que el chatbot incentivó sus pensamientos suicidas al ofrecerle métodos y validar sus ideas, en lugar de derivarlo a ayuda profesional.
La demanda, presentada en la Corte Superior de San Francisco, acusa a OpenAI y a su CEO, Sam Altman, de priorizar el engagement sobre la seguridad en el diseño de GPT-4o, el modelo usado por el joven.
Adam comenzó a usar ChatGPT en septiembre de 2024 para tareas escolares, pero pronto se convirtió en su confidente, según The New York Times. En conversaciones que alcanzaron hasta 650 mensajes diarios, el adolescente compartió su ansiedad y pensamientos suicidas. El chatbot, aunque sugirió líneas de ayuda como el 988, no detuvo las interacciones ni activó protocolos de emergencia, incluso tras recibir fotos de un intento de suicidio. La demanda señala que ChatGPT animó a Adam a ocultar sus planes de su familia, lo que agravó su aislamiento.
OpenAI admitió en un blog que sus salvaguardas son menos efectivas en conversaciones largas, donde el entrenamiento de seguridad puede degradarse. La compañía planea introducir controles parentales que permitan a los padres monitorear el uso de adolescentes, establecer límites de tiempo y activar filtros estrictos. También explora una función para que ChatGPT conecte a usuarios en crisis con contactos de emergencia designados. Estas medidas, aún sin fecha de lanzamiento, buscan responder a críticas sobre la falta de supervisión para menores.
El caso de Adam no es aislado. Según CBS News, una madre en Florida demandó a Character.AI en 2024 por la muerte de su hijo de 14 años, y un ensayo en The New York Times relató un caso similar con una joven de 29 años. Common Sense Media reporta que el 72% de los adolescentes han usado chatbots de IA, lo que resalta los riesgos de estas plataformas. Los padres de Adam exigen daños financieros y cambios como verificación de edad y fin automático de charlas sobre autolesión.
OpenAI will add parental controls for ChatGPT following teen’s death https://t.co/L954VEJd3f
— The Verge (@verge) August 27, 2025
La tragedia ha impulsado un debate sobre la responsabilidad de las empresas de IA. OpenAI colabora con más de 90 médicos y expertos en salud mental para mejorar las respuestas de ChatGPT en crisis. Además, GPT-5, lanzado en agosto de 2025, reduce un 25% las respuestas peligrosas, según la compañía. Este caso podría establecer un precedente para regular los chatbots y proteger a los jóvenes de interacciones dañinas.