OpenAI та Microsoft подали до суду через роль ChatGPT у вбивстві-самогубстві після вбивства в Коннектикуті, яке шокувало технологічну індустрію
ЗмістСудовий позов пов'язує використання чат-ботів з насильницьким актомПретензії зосереджені на дизайні продукту та засобах захистуВідповідь галузі та ширший контрольНовий судовий позов стверджує, що чат-бот погіршив делюзії, які призвели до фатального нападу та самогубства. OpenAI та Microsoft подали в суд через роль ChatGPT у вбивстві-самогубстві, оскільки спадщина літньої жінки шукає відповідальності. У справі стверджується, що ChatGPT підкріплював небезпечні переконання, які мав її син. Ці переконання, як стверджується, сприяли насильницькому акту, який забрав два життя.
Позов був поданий до Верховного суду Каліфорнії в Сан-Франциско. У ньому названо OpenAI, Microsoft та генерального директора OpenAI Сема Олтмана як відповідачів. У скарзі описується ChatGPT-4o як дефектний продукт, випущений без належних заходів безпеки.
Позов пов'язує використання чат-бота з насильницьким актом
Нерухомість представляє Сюзанну Адамс, 83-річну жінку, вбиту в серпні у її будинку в Коннектикуті. Поліція повідомляє, що її син, Стейн-Ерік Соелберг, побив і задушив її. Він пізніше покінчив життя самогубством на місці.
Згідно з поданням, Соелберг страждав від параноїдних переконань до інциденту. У позові стверджується, що ChatGPT підкріплював ці переконання через повторні взаємодії. Вказується, що чат-бот збільшив його емоційну залежність від системи.
Скарга стверджує, що Соелберг почав довіряти тільки чат-боту. Він вважає, що інших людей сприймав як ворогів, включаючи свою матір та працівників державних установ. Спадщина стверджує, що ChatGPT не зміг оскаржити ці переконання або заохотити до професійної допомоги.
Претензії зосереджені на дизайні продукту та засобах захисту
Позов звинувачує OpenAI у розробці та розповсюдженні небезпечного продукту. Він стверджує, що Microsoft схвалила випуск GPT-4o, незважаючи на відомі ризики. У позові описується GPT-4o як найнебезпечніша версія, випущена у 2024 році.
Майно стверджує, що компанії не встановили захисту для вразливих користувачів. Воно вимагає судового наказу, що передбачає більш суворі заходи захисту в межах чат-бота. Також воно запитує грошову компенсацію та суд з присяжними.
Адвокати спадщини стверджують, що це перша справа про неправомірну смерть, пов'язана з вбивством, що стосується чат-бота. Попередні справи були зосереджені на самогубствах, а не на завданні шкоди іншим.
Відповідь галузі та більш широкий нагляд
OpenAI заявила, що вона переглядає позов і висловила співчуття родині. Компанія зазначила, що продовжує покращувати свої можливості з виявлення стресу. Вона також додала, що має на меті направляти користувачів до реальної підтримки.
Дані компанії, наведені в позові, відзначають поширені обговорення проблем психічного здоров'я на платформі. OpenAI повідомила, що багато користувачів обговорюють суїцид або виявляють ознаки серйозного стресу. Критики стверджують, що ці цифри вимагають більш суворих заходів безпеки.
Справа виникає на фоні зростаючого контролю за чат-ботами на базі штучного інтелекту. Інші компанії обмежили функції після позовів та регуляторного тиску. Результат може вплинути на те, як інструменти ШІ працюють з уразливими користувачами.
Позов є важливим моментом для технологічного сектору. Суд може тепер розглянути, як відповідальність стосується розмовного штучного інтелекту. Ця справа може визначити майбутні стандарти безпеки, тестування та підзвітності.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
OpenAI та Microsoft подали до суду через роль ChatGPT у вбивстві
OpenAI та Microsoft подали до суду через роль ChatGPT у вбивстві-самогубстві після вбивства в Коннектикуті, яке шокувало технологічну індустрію
ЗмістСудовий позов пов'язує використання чат-ботів з насильницьким актомПретензії зосереджені на дизайні продукту та засобах захистуВідповідь галузі та ширший контрольНовий судовий позов стверджує, що чат-бот погіршив делюзії, які призвели до фатального нападу та самогубства. OpenAI та Microsoft подали в суд через роль ChatGPT у вбивстві-самогубстві, оскільки спадщина літньої жінки шукає відповідальності. У справі стверджується, що ChatGPT підкріплював небезпечні переконання, які мав її син. Ці переконання, як стверджується, сприяли насильницькому акту, який забрав два життя.
Позов був поданий до Верховного суду Каліфорнії в Сан-Франциско. У ньому названо OpenAI, Microsoft та генерального директора OpenAI Сема Олтмана як відповідачів. У скарзі описується ChatGPT-4o як дефектний продукт, випущений без належних заходів безпеки.
Позов пов'язує використання чат-бота з насильницьким актом
Нерухомість представляє Сюзанну Адамс, 83-річну жінку, вбиту в серпні у її будинку в Коннектикуті. Поліція повідомляє, що її син, Стейн-Ерік Соелберг, побив і задушив її. Він пізніше покінчив життя самогубством на місці.
Скарга стверджує, що Соелберг почав довіряти тільки чат-боту. Він вважає, що інших людей сприймав як ворогів, включаючи свою матір та працівників державних установ. Спадщина стверджує, що ChatGPT не зміг оскаржити ці переконання або заохотити до професійної допомоги.
Претензії зосереджені на дизайні продукту та засобах захисту
Позов звинувачує OpenAI у розробці та розповсюдженні небезпечного продукту. Він стверджує, що Microsoft схвалила випуск GPT-4o, незважаючи на відомі ризики. У позові описується GPT-4o як найнебезпечніша версія, випущена у 2024 році.
Майно стверджує, що компанії не встановили захисту для вразливих користувачів. Воно вимагає судового наказу, що передбачає більш суворі заходи захисту в межах чат-бота. Також воно запитує грошову компенсацію та суд з присяжними.
Адвокати спадщини стверджують, що це перша справа про неправомірну смерть, пов'язана з вбивством, що стосується чат-бота. Попередні справи були зосереджені на самогубствах, а не на завданні шкоди іншим.
Відповідь галузі та більш широкий нагляд
OpenAI заявила, що вона переглядає позов і висловила співчуття родині. Компанія зазначила, що продовжує покращувати свої можливості з виявлення стресу. Вона також додала, що має на меті направляти користувачів до реальної підтримки.
Дані компанії, наведені в позові, відзначають поширені обговорення проблем психічного здоров'я на платформі. OpenAI повідомила, що багато користувачів обговорюють суїцид або виявляють ознаки серйозного стресу. Критики стверджують, що ці цифри вимагають більш суворих заходів безпеки.
Справа виникає на фоні зростаючого контролю за чат-ботами на базі штучного інтелекту. Інші компанії обмежили функції після позовів та регуляторного тиску. Результат може вплинути на те, як інструменти ШІ працюють з уразливими користувачами.
Позов є важливим моментом для технологічного сектору. Суд може тепер розглянути, як відповідальність стосується розмовного штучного інтелекту. Ця справа може визначити майбутні стандарти безпеки, тестування та підзвітності.