🌕 桂花香,月儿圆~
Gate 广场 · 中秋创作激励限时开启!
创作点亮中秋,带上热门话题发帖,就有机会瓜分 $5,000 中秋好礼! 🎁
立即报名参与 👉 https://www.gate.com/campaigns/1953
💡 参与攻略
1️⃣ 在广场发帖并带上话题 #Gate广场创作点亮中秋#
2️⃣ 内容需围绕广场官号(Gate广场_Official)每日发布的热点话题进行创作,并确保带上该热点话题及 #Gate广场创作点亮中秋# 标签
3️⃣ 发帖数量越多,内容越优质,互动量越高,奖励越丰厚!
💰 创作者专属奖励
🏆 Top 1:宝格丽中秋限定礼盒 + $100 合约体验券 + $100 GT
🥈 Top 2:宝格丽中秋限定礼盒 + $80 合约体验券 + $60 GT
🥉 Top 3:宝格丽中秋限定礼盒 + $60 合约体验券 + $30 GT
Top 4-10:宝格丽中秋限定礼盒 + $50 合约体验券
Top 11-20:多功能充电器 + $30 合约体验券
幸运奖(30 位):每人 $20 合约体验券
除此之外每位获奖者都将获得相应的社区流量扶持,增加您的社区影响力!
🍀 新用户特别福利:
第一次在活动期间发帖?恭喜你,还有机会冲击 $600 中秋赏月奖池!
完成任务(完善资料+关注5人+点赞/评论/转发5帖+带话题发首帖),30 位幸运用
长文本信息准确率超过 ChatGPT,Meta 提出降低大模型幻觉新方法
来源:量子位
大模型的幻觉问题,又有新的解决方法了!
Meta AI实验室提出了一种“分而治之”的解决方案。
有了这个方案,Llama-65B输出的信息准确率提升了一倍,甚至超过了ChatGPT。
Meta此次提出的“验证链”(CoVe),是与“思维链”(CoT)相似的一种链式方法。
区别在于,“step-by-step”的思维链更关注逻辑推理,而验证链更注重事实信息。
有网友看了之后发现,这个验证链很像是自己用ChatGPT写代码时的一种科学方法:
拆解答案,分而治之
验证链的核心思想,是把要验证的一大段内容,拆解成一个个小的问题,具体流程是这样的:
首先,模型会根据用户提出的问题照常生成回复。
接着,根据生成的回复内容,针对其中的各项信息,生成一系列的验证问题。
然后让模型自行回答其所提出的这些问题,并根据结果对初始答案进行调整,得到最终结果。
举个简单的例子,假如想询问模型19世纪美墨战争的主要原因是什么。
模型回答了事件发生的时间,以及在这之前都发生了什么事。
于是,模型发现自己提到的一项内容时间相差太远,调整后给出了最终的答案。
这四种模式越来越细化,准确率也是越来越高。
那么为什么拆分提问就能提高模型的准确性呢?
首先是因为拆解后的问题比整体任务更容易,论述题变成了问答甚至选择、判断题,问题简单了,准确率也就提升了。
此外,把问题分解可以让模型真正重新思考,而不是反复地重复错误答案。
那么,验证链方式的效果究竟如何呢?
信息准确率超过ChatGPT
为了探究这一问题,研究人员用Llama进行了测试,测试任务一共有三项。
首先是信息列举,比如列举出出生于某地、从事某行业的名人。
这项任务中,研究人员一共测试了两个数据集——简单一些的Wikidata和从难一些的Wiki-Category list(从维基百科中提取)。
接下来是“闭域问答”题,研究人员从MultiSpanQA数据集中抽取多个不连续信息进行挖空提问。
比如“谁在哪一年创建了世界上第一家出版社”(答案是Johannes Gutenberg, 1450)。
结果,Cove也为Llama带来了20%左右的准确度提升。
结果在Factor+Reviese模式下,准确率不仅比无验证链模式大幅提高,还超过了ChatGPT。
论文地址: