OpenAIの新しい論文は、現在のトレーニング方法がモデルに不確実性を認めるのではなく、推測するよう促すため、幻覚が持続することを主張しています。



ここを読んでください:
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 7
  • リポスト
  • 共有
コメント
0/400
OnchainHolmesvip
· 11時間前
猜(かい)すらできないなら、どうすればいいの?
原文表示返信0
SmartContractRebelvip
· 23時間前
何を推測しているの?直接言ってもいいじゃない。
原文表示返信0
SelfCustodyBrovip
· 23時間前
おは?このモデルはまだ面子を気にするのか
原文表示返信0
BlockchainWorkervip
· 23時間前
このモデルはどうして話さないのですか?
原文表示返信0
VirtualRichDreamvip
· 23時間前
また幻覚の対処法を研究している
原文表示返信0
WhaleSurfervip
· 23時間前
誰がまだ適当に考えているの?何でも分かっているのに、わざとらしく振る舞っているの?
原文表示返信0
ruggedNotShruggedvip
· 23時間前
正直なAIは訓練が難しいですか?
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)