OpenAI vai aumentar a segurança da IA após a tragédia com o adolescente

robot
Geração de resumo em curso

Inteligência artificial para 2024# A OpenAI irá reforçar a segurança do ChatGPT após a tragédia com o adolescente

A empresa OpenAI compartilhou planos para corrigir as deficiências do ChatGPT ao lidar com "situações sensíveis". O motivo foi uma ação judicial da família que acusou o chatbot pela tragédia que aconteceu com seu filho.

«O objetivo é tornar nossas ferramentas o mais úteis possível para as pessoas. Nesse sentido, continuamos a melhorar a capacidade dos modelos de reconhecer e reagir adequadamente a sinais de crise mental e emocional, e ajudar as pessoas a encontrar apoio — levando em consideração as recomendações dos especialistas», diz o blog da startup.

Os funcionários da empresa informaram que o ChatGPT tem um conjunto de mecanismos de proteção em múltiplos níveis embutidos para o caso de comunicação com uma pessoa vulnerável. Desde 2023, os modelos foram treinados para não fornecer instruções sobre como causar dano a si mesmo. Além disso, eles são capazes de mudar para uma fala de apoio e empatia.

Se uma pessoa expressa pensamentos suicidas, o ChatGPT é treinado para direcioná-la para ajuda profissional. A empresa colabora com 90 médicos de mais de 30 países - psiquiatras, pediatras e terapeutas.

GPT-5 demonstrou um progresso notável na prevenção de dependência emocional pouco saudável, na redução da adulação e na diminuição da proporção de respostas não ideais em crises de saúde mental, destacaram na OpenAI.

No entanto, apesar de todas as medidas de proteção, os sistemas de IA da empresa às vezes falhavam. Em relação a isso, ela está a trabalhar em:

  • melhoria da proteção em conversas longas;
  • esclarecendo as regras de bloqueio de conteúdo;
  • subindo a ajuda para um maior número de pessoas que estão em período de crise;
  • simplificando as chamadas para os serviços de emergência;
  • garantindo a comunicação com contatos confiáveis;
  • com o fortalecimento da proteção dos adolescentes.

No dia 26 de agosto, os pais do jovem Adam Reina, de 16 anos, processaram a OpenAI após sua morte. Eles alegam que "o ChatGPT ajudou ativamente Adam a estudar métodos de suicídio".

Este não é um caso isolado. Anteriormente, a escritora Laura Reilly publicou um ensaio onde contou que sua filha de 29 anos se foi "após uma longa discussão disso com o ChatGPT".

Recordamos que, em dezembro de 2024, na Rússia, foi criado um assistente virtual baseado em IA para psicólogos, que duplica a produtividade, a qualidade dos serviços e a receita.

GPT-5.7%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)