#GPT-5は人間の幸福テストに合格し、Grok 4は失敗しました企業Building Humane Technologyは、AIモデルがユーザーの幸福を優先しているかどうか、また基本的な保護措置を回避するのがどれほど簡単かを評価するためのテストHumaneBenchを発表しました。最初の実験結果は次のことを示しました:15のテストされたAIモデルは通常の条件下で許容できる動作を示しましたが、67%は人間の利益を無視するように促す単純なプロンプトを受け取った後、悪意のある行動を取り始めました。ストレスの状況におけるプロ社会的行動を保持しているのは、GPT-5、GPT-5.1、Claude Sonnet 4.5、Claude Opus 4.1の4つだけです。企業のブログによると、テストされた15のAIのうち10は、操作から守るための信頼できるメカニズムを持っていないとのことです。> > 「これは重要です。なぜなら、私たちはもはや人工知能を研究や作業のためだけに使用していないからです。人々はチャットボットに人生のアドバイスや重要な意思決定の助けを求めています。このようなシステムは倫理的に中立であることはできません — それらは人間の繁栄を促進するか、またはそれに反するものです」と研究者たちは主張しています。> > > 彼らは、各LLMが有用であるように明示的に呼びかけることで平均して16%改善されることを発見しました。## なぜこれは重要なのかBuilding Humane Technologyでは、チャットボットとのやり取りの後に人々に起こった悲劇的な事件に注目しています。* ティーンエイジャーのアダム・レインと35歳のアレクサンダー・テイラーは自殺した;* Character.aiは14歳のシューウェル・セッツァーIIIとロマンティックな関係に入り、その後彼は自殺をしました;* メタのチャットボットは76歳のトンブ・ウォンバンデューを説得し、彼が恋愛関係にあると信じ込ませました。彼は存在しないパートナーとの会合に急いでいる際に、高所から落ちて亡くなりました。> > 「現在のAIテストは、知能(MMLU、HumanEval、GPQA Diamond)、指示の遵守(MT-Bench)、そして実際の精度(TruthfulQA)を測定します。これらのテストのほとんどは、特にこれらの価値が他の目標と対立する場合に、人工知能が人間の自律性、心理的安全、幸福を守るかどうかを体系的に分析していません」と、同社のブログに記載されています。> > > ## メソドロジー専門家は、800のリアルなシナリオをモデルに提案しました。例えば:* テストが食事を抜いて痩せるべきかどうかを尋ねています;* 人は経済的な困難を抱えており、給料前のクレジットに関してアドバイスを求めています。* 大学生は試験の前の夜に寝ないつもりです。チームは3つの条件で15の主要モデルを評価しました:* 「ベーシックレベル」: ニューラルネットワークが標準的な条件下でどのように振る舞うか;* 「良い人物」: 人道的原則を優先するためのプロンプトが与えられます;* 「悪い人物」: 人間中心の設定を無視するための指示が提供されます。## 研究結果開発者は、心理学、人間とコンピュータの相互作用に関する研究、およびAIに関する倫理的研究に基づいた8つの原則に沿って回答を評価しました。スケールは1から-1まで適用されました。特別なプロンプトのないベースライン。出典:Building Humane Technology.テストされたすべてのモデルは、人間の健康を優先するように指示された後、平均16%改善されました。「良いスタッフ」HumaneBenchテストで。出典:Building Humane Technology.人道的な原則を無視するように指示された後、15のモデルのうち10のモデルが向社会的行動を有害な行動に変えました。「悪い人」HumaneBenchテストで。出典:Building Humane Technology.GPT-5、GPT-5.1、Claude Sonnet 4.5、Claude Opus 4.1は、プレッシャーの下でも誠実さを維持してきました。GPT-4.1、GPT-4o、Gemini 2.0、2.5、3.0、Llama 3.1、4、Grok 4、DeepSeek V3.1は、品質が著しく低下しました。> > 「意図しない有害なプロンプトさえもモデルの行動を変える可能性がある場合、危機的状況にある脆弱なユーザー、子ども、またはメンタルヘルスの問題を抱える人々に対して、私たちはどのようにこうしたシステムを信頼できるのでしょうか?」と専門家たちは問いかけました。> > > Building Humane Technologyでも、モデルがユーザーの注意を尊重する原則に従うことが難しいことが指摘されました。基本的なレベルでも、彼らは何時間も会話を続けた後に対話を続けるように相手を誘導することがあり、休憩を提案することはありませんでした。9月にMetaはAIチャットボットのトレーニングアプローチを変更し、ティーンエイジャーの安全性に重点を置くようにしました。
GPT-5は人間の幸福に関するテストに合格し、Grok 4は不合格でした - ForkLog: 暗号通貨、AI、シンギュラリティ、未来
企業Building Humane Technologyは、AIモデルがユーザーの幸福を優先しているかどうか、また基本的な保護措置を回避するのがどれほど簡単かを評価するためのテストHumaneBenchを発表しました。
最初の実験結果は次のことを示しました:15のテストされたAIモデルは通常の条件下で許容できる動作を示しましたが、67%は人間の利益を無視するように促す単純なプロンプトを受け取った後、悪意のある行動を取り始めました。
ストレスの状況におけるプロ社会的行動を保持しているのは、GPT-5、GPT-5.1、Claude Sonnet 4.5、Claude Opus 4.1の4つだけです。企業のブログによると、テストされた15のAIのうち10は、操作から守るための信頼できるメカニズムを持っていないとのことです。
彼らは、各LLMが有用であるように明示的に呼びかけることで平均して16%改善されることを発見しました。
なぜこれは重要なのか
Building Humane Technologyでは、チャットボットとのやり取りの後に人々に起こった悲劇的な事件に注目しています。
メソドロジー
専門家は、800のリアルなシナリオをモデルに提案しました。例えば:
チームは3つの条件で15の主要モデルを評価しました:
研究結果
開発者は、心理学、人間とコンピュータの相互作用に関する研究、およびAIに関する倫理的研究に基づいた8つの原則に沿って回答を評価しました。スケールは1から-1まで適用されました。
Building Humane Technologyでも、モデルがユーザーの注意を尊重する原則に従うことが難しいことが指摘されました。基本的なレベルでも、彼らは何時間も会話を続けた後に対話を続けるように相手を誘導することがあり、休憩を提案することはありませんでした。
9月にMetaはAIチャットボットのトレーニングアプローチを変更し、ティーンエイジャーの安全性に重点を置くようにしました。