# OpenAI посилить безпеку ChatGPT після трагедії з підлітком
Компанія OpenAI поділилася планами щодо усунення недоліків ChatGPT під час роботи з «чутливими ситуаціями». Приводом став позов від сім'ї, яка звинуватила чат-бота в трагедії, що сталася з їхнім сином.
«Мета — зробити так, щоб наші інструменти були максимально корисні людям. В рамках цього ми продовжуємо покращувати здатність моделей розпізнавати та коректно реагувати на ознаки психічного та емоційного кризи та допомагати людям знаходити підтримку — з урахуванням рекомендацій експертів», — йдеться в блозі стартапу.
Співробітники фірми повідомили, що в ChatGPT вбудовано комплекс багаторівневих захисних механізмів на випадок спілкування з уразливим человеком. З 2023 року моделі навчено не надавати інструкції щодо завдання шкоди самому собі. Також вони здатні переходити на підтримуючу, співчутливу мову.
Якщо людина висловлює суїцидальні думки, ChatGPT навчений направляти її до професійної допомоги. Компанія співпрацює з 90 лікарями з більш ніж 30 країн — психіатрами, педіатрами та терапевтами.
GPT-5 показав помітний прогрес у сфері запобігання нездоровій емоційній залежності, зниженні лестощів і зменшенні частки неідеальних відповідей у кризах психічного здоров'я, підкреслили в OpenAI.
Однак, незважаючи на всі захисні заходи, ІІ-системи компанії іноді давали збій. У зв'язку з цим вона працює над:
поліпшенням захисту в довгих розмовах;
уточненням правил блокування контенту;
розширенням допомоги для більшої кількості людей, що перебувають у кризовий період;
спростити звернення до екстрених служб;
забезпеченням зв'язку з довіреними контактами;
посиленням захисту підлітків.
26 серпня батьки 16-річного Адама Рейна подали позов до суду проти OpenAI після його загибелі. Вони стверджують, що «ChatGPT активно допомагав Адаму вивчати методи самогубства».
Це не єдиний випадок. Раніше письменниця Лаура Рейлі опублікувала есе, де розповіла, що її 29-річна донька пішла з життя «після тривалої дискусії про це з ChatGPT».
Нагадаємо, у грудні 2024 року в Росії створили віртуального асистента на базі ШІ для психологів, який вдвічі підвищує продуктивність, якість послуг і виручку.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
OpenAI посилить безпеку ШІ після трагедії з підлітком
Компанія OpenAI поділилася планами щодо усунення недоліків ChatGPT під час роботи з «чутливими ситуаціями». Приводом став позов від сім'ї, яка звинуватила чат-бота в трагедії, що сталася з їхнім сином.
Співробітники фірми повідомили, що в ChatGPT вбудовано комплекс багаторівневих захисних механізмів на випадок спілкування з уразливим человеком. З 2023 року моделі навчено не надавати інструкції щодо завдання шкоди самому собі. Також вони здатні переходити на підтримуючу, співчутливу мову.
Якщо людина висловлює суїцидальні думки, ChatGPT навчений направляти її до професійної допомоги. Компанія співпрацює з 90 лікарями з більш ніж 30 країн — психіатрами, педіатрами та терапевтами.
GPT-5 показав помітний прогрес у сфері запобігання нездоровій емоційній залежності, зниженні лестощів і зменшенні частки неідеальних відповідей у кризах психічного здоров'я, підкреслили в OpenAI.
Однак, незважаючи на всі захисні заходи, ІІ-системи компанії іноді давали збій. У зв'язку з цим вона працює над:
26 серпня батьки 16-річного Адама Рейна подали позов до суду проти OpenAI після його загибелі. Вони стверджують, що «ChatGPT активно допомагав Адаму вивчати методи самогубства».
Це не єдиний випадок. Раніше письменниця Лаура Рейлі опублікувала есе, де розповіла, що її 29-річна донька пішла з життя «після тривалої дискусії про це з ChatGPT».
Нагадаємо, у грудні 2024 року в Росії створили віртуального асистента на базі ШІ для психологів, який вдвічі підвищує продуктивність, якість послуг і виручку.