🌕 Gate 廣場 · 中秋創作激勵 Day 9 賞金話題公布- #BTC战略储备市场影响# !
創作點亮中秋,帶熱門話題發帖,瓜分 $5,000 中秋好禮!🎁
立即報名查看詳情 👉 https://www.gate.com/campaigns/1953
💝 新用戶首次發帖並完成互動任務,即可瓜分 $600 新人獎池!
🔥 Day 9 熱門話題:BTC戰略儲備市場影響
近日,美國財政部攜手跨黨派議員重啓“比特幣戰略儲備”議題,討論是否將BTC納入國家資產配置框架。支持者認爲BTC稀缺性與抗通脹特性,可與黃金形成雙保險;反對者則擔憂高波動性與監管缺口,可能衝擊現有儲備體系。你怎麼看?
發帖建議:
1️⃣ 如果美國真把 #BTC# 列入戰略儲備,會不會成爲下一輪牛市的超級導火索?
2️⃣ 機構入場往往推高價格,你預測BTC短期/長期可能會衝到多少?會不會挑戰20萬美金?
3️⃣ 你覺得這一提案最快什麼時候可能落地?若通過,其他國家會不會跟進儲備?
快帶上 #BTC战略储备市场影响# 和 #Gate广场创作点亮中秋# 發帖,內容越多越優質,越有機會贏取 $5,000 中秋好禮!
長文本資訊準確率超過ChatGPT,Meta 提出降低大模型幻覺新方法
來源:量子位元
大模型的幻覺問題,又有新的解決方法了!
Meta AI實驗室提出了一種「分而治之」的解決方案。
有了這個方案,Llama-65B輸出的資訊準確率提升了一倍,甚至超過了ChatGPT。
Meta這次提出的「驗證鏈」(CoVe),是與「思維鏈」(CoT)相似的一種鍊式方法。
差別在於,「step-by-step」的思考鏈更著重邏輯推理,而驗證鏈則更注重事實資訊。
有網友看了之後發現,這個驗證鏈很像是自己用ChatGPT寫程式碼時的科學方法:
拆解答案,分而治之
驗證鏈的核心思想,是把要驗證的一大段內容,拆解成一個個小的問題,具體流程是這樣的:
首先,模型會根據使用者提出的問題照常產生回應。
接著,根據產生的回應內容,針對其中的各項訊息,產生一系列的驗證問題。
然後讓模型自行回答其所提出的這些問題,並根據結果對初始答案進行調整,得到最終結果。
舉個簡單的例子,假如想詢問模型19世紀美墨戰爭的主要原因是什麼。
模型回答了事件發生的時間,以及在這之前都發生了什麼事。
於是,模型發現自己提到的一項內容時間相差太遠,調整後給出了最終的答案。
這四種模式越來越細化,準確率也越來越高。
那為什麼拆分提問就能提高模型的準確性呢?
首先是因為拆解後的問題比整體任務更容易,論述題變成了問答甚至選擇、判斷題,問題簡單了,準確率也就提升了。
此外,把問題分解可以讓模型真正重新思考,而不是反覆地重複錯誤答案。
那麼,驗證鏈方式的效果究竟如何呢?
資訊準確率超過ChatGPT
為了探究這個問題,研究人員用Llama進行了測試,測試任務一共有三項。
首先是資訊列舉,例如列舉出出生於某地、從事某行業的名人。
在這項任務中,研究人員一共測試了兩個資料集——簡單一些的Wikidata和從困難一些的Wiki-Category list(從維基百科中提取)。
接下來是「閉域問答」題,研究人員從MultiSpanQA資料集中抽取多個不連續資訊進行挖空提問。
例如「誰在哪一年創立了世界上第一家出版社」(答案是Johannes Gutenberg, 1450)。
結果,Cove也為Llama帶來了20%左右的準確度提升。
結果在Factor+Reviese模式下,準確率不僅比無驗證鏈模式大幅提高,還超過了ChatGPT。
論文地址: