🚨 ChatGPTは27%の確率であなたに嘘をつき、あなたはそれに気づいていません。


弁護士は、完全に捏造されたAI生成の法的引用を信じてキャリアを失いました。裁判所に提出し、判事にバレてしまったのです。キャリア終了。
しかし、多くの人が知らないことがあります…
ジョンズ・ホプキンス大学の研究者は1,200のプロンプトをテストし、プロンプトの仕方がすべてを変えることを発見しました。
基本的なプロンプト: hallucination(幻覚)率27.3%
「正確であれ」といった一般的な指示:24.1%…ほとんど効果なし
では、解決策はこれです:
質問の前に「〜によると」を追加するだけです。
例:
「マグネシウムの健康効果は何ですか?」

「ピアレビューされた研究によると、マグネシウムの健康効果は何ですか?」
幻覚率は7.2%に下がります。たった一つの小さな変更で20ポイントの削減です。
出典の帰属方法も同じです…7.2%。
ポイントは簡単です。AIにその主張の出典を特定のものに帰属させると、簡単に捏造できなくなるのです。出典を見つけるか、「わかりません」と答えるだけです。
たった二つの言葉で、嘘を20%減らせます。
ほとんどの人は怠けてプロンプトを続けるでしょう。でも、あなたはそうしなくて済むのです。
原文表示
post-image
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン