# OpenAI renforcera la sécurité de ChatGPT après la tragédie avec l'adolescent
La société OpenAI a partagé ses plans pour remédier aux lacunes de ChatGPT dans la gestion des « situations sensibles ». Cela fait suite à une plainte d'une famille qui accuse le chatbot d'être responsable de la tragédie survenue avec leur fils.
«L'objectif est de faire en sorte que nos outils soient aussi utiles que possible aux gens. Dans ce cadre, nous continuons à améliorer la capacité des modèles à reconnaître et à réagir correctement aux signes de crise psychologique et émotionnelle et à aider les gens à trouver du soutien — en tenant compte des recommandations des experts», indique le blog de la start-up.
Les employés de l'entreprise ont rapporté que ChatGPT intègre un ensemble de mécanismes de protection multicouches en cas de communication avec une personne vulnérable. Depuis 2023, les modèles sont formés pour ne pas fournir d'instructions sur la façon de se faire du mal. Ils sont également capables de passer à un discours de soutien et de compassion.
Si une personne exprime des pensées suicidaires, ChatGPT est formé pour l'orienter vers une aide professionnelle. L'entreprise collabore avec 90 médecins de plus de 30 pays - psychiatres, pédiatres et thérapeutes.
GPT-5 a montré des progrès remarquables dans la prévention de la dépendance émotionnelle malsaine, la réduction de la flatterie et la diminution de la part de réponses imparfaites lors des crises de santé mentale, a souligné OpenAI.
Cependant, malgré toutes les mesures de protection, les systèmes d'IA de l'entreprise échouaient parfois. En raison de cela, elle travaille sur :
amélioration de la protection lors des longues conversations;
précision des règles de blocage de contenu;
en élargissant l'aide à un plus grand nombre de personnes en période de crise;
simplification des appels aux services d'urgence;
en maintenant le contact avec des contacts de confiance;
en renforçant la protection des adolescents.
Le 26 août, les parents d'Adam Reina, âgé de 16 ans, ont intenté un procès contre OpenAI après sa mort. Ils affirment que « ChatGPT a activement aidé Adam à étudier des méthodes de suicide ».
Ce n'est pas un cas isolé. Auparavant, l'écrivaine Laura Reilly avait publié un essai dans lequel elle racontait que sa fille de 29 ans s'est suicidée « après une longue discussion à ce sujet avec ChatGPT ».
Rappelons qu'en décembre 2024, un assistant virtuel basé sur l'IA a été créé en Russie pour les psychologues, qui double la productivité, la qualité des services et le chiffre d'affaires.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI renforcera la sécurité de l'IA après la tragédie avec le jeune.
La société OpenAI a partagé ses plans pour remédier aux lacunes de ChatGPT dans la gestion des « situations sensibles ». Cela fait suite à une plainte d'une famille qui accuse le chatbot d'être responsable de la tragédie survenue avec leur fils.
Les employés de l'entreprise ont rapporté que ChatGPT intègre un ensemble de mécanismes de protection multicouches en cas de communication avec une personne vulnérable. Depuis 2023, les modèles sont formés pour ne pas fournir d'instructions sur la façon de se faire du mal. Ils sont également capables de passer à un discours de soutien et de compassion.
Si une personne exprime des pensées suicidaires, ChatGPT est formé pour l'orienter vers une aide professionnelle. L'entreprise collabore avec 90 médecins de plus de 30 pays - psychiatres, pédiatres et thérapeutes.
GPT-5 a montré des progrès remarquables dans la prévention de la dépendance émotionnelle malsaine, la réduction de la flatterie et la diminution de la part de réponses imparfaites lors des crises de santé mentale, a souligné OpenAI.
Cependant, malgré toutes les mesures de protection, les systèmes d'IA de l'entreprise échouaient parfois. En raison de cela, elle travaille sur :
Le 26 août, les parents d'Adam Reina, âgé de 16 ans, ont intenté un procès contre OpenAI après sa mort. Ils affirment que « ChatGPT a activement aidé Adam à étudier des méthodes de suicide ».
Ce n'est pas un cas isolé. Auparavant, l'écrivaine Laura Reilly avait publié un essai dans lequel elle racontait que sa fille de 29 ans s'est suicidée « après une longue discussion à ce sujet avec ChatGPT ».
Rappelons qu'en décembre 2024, un assistant virtuel basé sur l'IA a été créé en Russie pour les psychologues, qui double la productivité, la qualité des services et le chiffre d'affaires.