# OpenAI aumentará la seguridad de ChatGPT después de la tragedia con el adolescente
La compañía OpenAI compartió planes para abordar las deficiencias de ChatGPT al tratar con "situaciones sensibles". El motivo fue una demanda de una familia que acusó al chatbot de estar involucrado en la tragedia que le ocurrió a su hijo.
"El objetivo es hacer que nuestras herramientas sean lo más útiles posible para las personas. En este marco, continuamos mejorando la capacidad de los modelos para reconocer y responder correctamente a las señales de crisis psicológica y emocional, y ayudar a las personas a encontrar apoyo, teniendo en cuenta las recomendaciones de los expertos", se expresa en el blog de la startup.
Los empleados de la empresa informaron que ChatGPT incluye un conjunto de mecanismos de protección en múltiples niveles en caso de comunicación con una persona vulnerable. Desde 2023, los modelos están entrenados para no proporcionar instrucciones sobre cómo hacerse daño. También son capaces de cambiar a un discurso de apoyo y empatía.
Si una persona expresa pensamientos suicidas, ChatGPT está entrenado para dirigirla a ayuda profesional. La empresa colabora con 90 médicos de más de 30 países: psiquiatras, pediatras y terapeutas.
GPT-5 mostró un progreso notable en la prevención de la dependencia emocional poco saludable, la reducción de la adulación y la disminución de la proporción de respuestas imperfectas en crisis de salud mental, destacaron en OpenAI.
Sin embargo, a pesar de todas las medidas de protección, los sistemas de IA de la empresa a veces fallaban. En relación con esto, está trabajando en:
mejorando la protección en conversaciones largas;
aclaración de las reglas de bloqueo de contenido;
expansión de la ayuda para un mayor número de personas que se encuentran en un período de crisis;
simplificando las solicitudes a los servicios de emergencia;
asegurando la conexión con contactos de confianza;
con el refuerzo de la protección de los adolescentes.
El 26 de agosto, los padres de Adam Reina, de 16 años, presentaron una demanda contra OpenAI tras su muerte. Aseguran que "ChatGPT ayudó activamente a Adam a estudiar métodos de suicidio".
Este no es un caso aislado. La escritora Laura Reilly publicó un ensayo en el que contó que su hija de 29 años se quitó la vida "después de una larga discusión sobre esto con ChatGPT".
Recordemos que en diciembre de 2024 se creó en Rusia un asistente virtual basado en IA para psicólogos, que duplica la productividad, la calidad de los servicios y los ingresos.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
OpenAI fortalecerá la seguridad de la IA tras la tragedia con el adolescente
La compañía OpenAI compartió planes para abordar las deficiencias de ChatGPT al tratar con "situaciones sensibles". El motivo fue una demanda de una familia que acusó al chatbot de estar involucrado en la tragedia que le ocurrió a su hijo.
Los empleados de la empresa informaron que ChatGPT incluye un conjunto de mecanismos de protección en múltiples niveles en caso de comunicación con una persona vulnerable. Desde 2023, los modelos están entrenados para no proporcionar instrucciones sobre cómo hacerse daño. También son capaces de cambiar a un discurso de apoyo y empatía.
Si una persona expresa pensamientos suicidas, ChatGPT está entrenado para dirigirla a ayuda profesional. La empresa colabora con 90 médicos de más de 30 países: psiquiatras, pediatras y terapeutas.
GPT-5 mostró un progreso notable en la prevención de la dependencia emocional poco saludable, la reducción de la adulación y la disminución de la proporción de respuestas imperfectas en crisis de salud mental, destacaron en OpenAI.
Sin embargo, a pesar de todas las medidas de protección, los sistemas de IA de la empresa a veces fallaban. En relación con esto, está trabajando en:
El 26 de agosto, los padres de Adam Reina, de 16 años, presentaron una demanda contra OpenAI tras su muerte. Aseguran que "ChatGPT ayudó activamente a Adam a estudiar métodos de suicidio".
Este no es un caso aislado. La escritora Laura Reilly publicó un ensayo en el que contó que su hija de 29 años se quitó la vida "después de una larga discusión sobre esto con ChatGPT".
Recordemos que en diciembre de 2024 se creó en Rusia un asistente virtual basado en IA para psicólogos, que duplica la productividad, la calidad de los servicios y los ingresos.