OpenAI confirmó que en los próximos meses implementará controles parentales en ChatGPT, en medio de crecientes cuestionamientos sobre el impacto del chatbot en jóvenes y tras la reciente demanda interpuesta contra la compañía y su director ejecutivo, Sam Altman, por el fallecimiento de un usuario de 16 años en California.
En una publicación oficial, la empresa reconoció que su tecnología no solo se utiliza para actividades cotidianas como redactar textos o resolver consultas, sino también como un canal de conversación para personas que buscan apoyo en momentos de dificultad emocional. “A esta escala, a veces nos encontramos con personas que padecen graves problemas mentales y emocionales”, admitió la compañía, que a inicios de agosto de 2025 reportaba más de 700 millones de usuarios activos en el mundo. Lea: Radican proyecto de ley para regular la inteligencia artificial en Colombia
Ajustes de seguridad y apoyo en crisis
La firma detalló una serie de medidas que ya está aplicando con el propósito de reducir riesgos en situaciones de vulnerabilidad. Entre ellas se incluye la colaboración con más de 90 profesionales de la salud —entre psiquiatras, pediatras y médicos generales— provenientes de más de 30 países, además de la conformación de un comité asesor con especialistas en salud mental, desarrollo juvenil e interacción humano-computadora.
En cuanto a la detección de riesgos, OpenAI indicó que cuando identifica a un usuario con intención de dañar a otros, el caso se remite a canales especializados supervisados por equipos entrenados y autorizados para actuar, lo que puede implicar la suspensión de cuentas.
Si se determina la existencia de una amenaza grave e inminente, se informa a las autoridades competentes, con la excepción de episodios relacionados con autolesiones, donde se prioriza la privacidad de los usuarios.
La compañía también resaltó mejoras en la última versión de su modelo. Según sus datos, GPT-5 ha reducido en más de un 25% las respuestas inadecuadas frente a emergencias de salud mental en comparación con la versión anterior, además de disminuir la dependencia emocional de los usuarios y la tendencia a la complacencia en diálogos sensibles.

Otro de los cambios en desarrollo busca que el sistema sea capaz de “desescalar una discusión potencialmente peligrosa al conectar a la persona con la realidad”. Asimismo, se están reforzando las respuestas tipo “consulte a un profesional” para que mantengan coherencia en conversaciones extensas y en interacciones repetidas.
Controles parentales y contacto de emergencia
Sobre los ajustes específicos para adolescentes, OpenAI explicó que habilitará herramientas para que padres y tutores puedan monitorear y personalizar la interacción de sus hijos con ChatGPT. Una de las funciones previstas será permitir que los usuarios designen un contacto de emergencia. “De esa manera, en momentos de mayor aflicción, ChatGPT puede hacer más que señalar recursos: puede ayudar a conectar a los adolescentes directamente con alguien que pueda intervenir”, indicó la empresa.
Actualmente, el uso de ChatGPT está autorizado solo a partir de los 13 años, con consentimiento adulto requerido en menores de 18, según la normativa de cada país. Sin embargo, hasta ahora no existían controles parentales internos, ya que la política de la compañía confiaba esa responsabilidad a las familias. Tras el caso de la familia Raine y la demanda en curso, OpenAI decidió modificar esa postura.