# A OpenAI irá reforçar a segurança do ChatGPT após a tragédia com o adolescente
A empresa OpenAI compartilhou planos para corrigir as deficiências do ChatGPT ao lidar com "situações sensíveis". O motivo foi uma ação judicial da família que acusou o chatbot pela tragédia que aconteceu com seu filho.
«O objetivo é tornar nossas ferramentas o mais úteis possível para as pessoas. Nesse sentido, continuamos a melhorar a capacidade dos modelos de reconhecer e reagir adequadamente a sinais de crise mental e emocional, e ajudar as pessoas a encontrar apoio — levando em consideração as recomendações dos especialistas», diz o blog da startup.
Os funcionários da empresa informaram que o ChatGPT tem um conjunto de mecanismos de proteção em múltiplos níveis embutidos para o caso de comunicação com uma pessoa vulnerável. Desde 2023, os modelos foram treinados para não fornecer instruções sobre como causar dano a si mesmo. Além disso, eles são capazes de mudar para uma fala de apoio e empatia.
Se uma pessoa expressa pensamentos suicidas, o ChatGPT é treinado para direcioná-la para ajuda profissional. A empresa colabora com 90 médicos de mais de 30 países - psiquiatras, pediatras e terapeutas.
GPT-5 demonstrou um progresso notável na prevenção de dependência emocional pouco saudável, na redução da adulação e na diminuição da proporção de respostas não ideais em crises de saúde mental, destacaram na OpenAI.
No entanto, apesar de todas as medidas de proteção, os sistemas de IA da empresa às vezes falhavam. Em relação a isso, ela está a trabalhar em:
melhoria da proteção em conversas longas;
esclarecendo as regras de bloqueio de conteúdo;
subindo a ajuda para um maior número de pessoas que estão em período de crise;
simplificando as chamadas para os serviços de emergência;
garantindo a comunicação com contatos confiáveis;
com o fortalecimento da proteção dos adolescentes.
No dia 26 de agosto, os pais do jovem Adam Reina, de 16 anos, processaram a OpenAI após sua morte. Eles alegam que "o ChatGPT ajudou ativamente Adam a estudar métodos de suicídio".
Este não é um caso isolado. Anteriormente, a escritora Laura Reilly publicou um ensaio onde contou que sua filha de 29 anos se foi "após uma longa discussão disso com o ChatGPT".
Recordamos que, em dezembro de 2024, na Rússia, foi criado um assistente virtual baseado em IA para psicólogos, que duplica a produtividade, a qualidade dos serviços e a receita.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
OpenAI vai aumentar a segurança da IA após a tragédia com o adolescente
A empresa OpenAI compartilhou planos para corrigir as deficiências do ChatGPT ao lidar com "situações sensíveis". O motivo foi uma ação judicial da família que acusou o chatbot pela tragédia que aconteceu com seu filho.
Os funcionários da empresa informaram que o ChatGPT tem um conjunto de mecanismos de proteção em múltiplos níveis embutidos para o caso de comunicação com uma pessoa vulnerável. Desde 2023, os modelos foram treinados para não fornecer instruções sobre como causar dano a si mesmo. Além disso, eles são capazes de mudar para uma fala de apoio e empatia.
Se uma pessoa expressa pensamentos suicidas, o ChatGPT é treinado para direcioná-la para ajuda profissional. A empresa colabora com 90 médicos de mais de 30 países - psiquiatras, pediatras e terapeutas.
GPT-5 demonstrou um progresso notável na prevenção de dependência emocional pouco saudável, na redução da adulação e na diminuição da proporção de respostas não ideais em crises de saúde mental, destacaram na OpenAI.
No entanto, apesar de todas as medidas de proteção, os sistemas de IA da empresa às vezes falhavam. Em relação a isso, ela está a trabalhar em:
No dia 26 de agosto, os pais do jovem Adam Reina, de 16 anos, processaram a OpenAI após sua morte. Eles alegam que "o ChatGPT ajudou ativamente Adam a estudar métodos de suicídio".
Este não é um caso isolado. Anteriormente, a escritora Laura Reilly publicou um ensaio onde contou que sua filha de 29 anos se foi "após uma longa discussão disso com o ChatGPT".
Recordamos que, em dezembro de 2024, na Rússia, foi criado um assistente virtual baseado em IA para psicólogos, que duplica a produtividade, a qualidade dos serviços e a receita.