✈️ Gate 广场【Gate Travel 旅行分享官召集令】
广场家人们注意啦!Gate Travel 已经上线~ 机票+酒店一站式预订,还能用加密货币直接付款 💸
所以说,你的钱包和你的旅行梦终于可以谈恋爱了 😎 💕
现在广场开启 #GateTravel旅行分享官# 活动,邀你来秀旅行灵感 & 使用体验!💡
🌴 参与方式:
1️⃣ 在【广场】带话题 #Gate Travel 旅行分享官# 发帖
2️⃣ 你可以:
你最想用 Gate Travel 去的目的地(私藏小岛 or 网红打卡点都行)
讲讲用 Gate Travel 订票/订酒店的奇妙体验
放放省钱/使用攻略,让大家省到笑出声
或者直接写一篇轻松的 Gate Travel 旅行小故事
📦 奖励安排,走起:
🏆 优秀分享官(1 名):Gate 旅行露营套装
🎖️ 热门分享官(3 名):Gate 旅行速干套装
🎉 幸运参与奖(5 名):Gate 国际米兰旅行小夜灯
*海外用户 旅行露营套装 以 $100 合约体验券,旅行速干套装 以 $50 合约体验券折算,国际米兰旅行小夜灯以 $30合约体验券折算。
📌 优质内容将有机会得到官方账号转发翻牌提升社区曝光!
📌 帖文将综合互动量、内容丰富度和创意评分。禁止小号刷贴,原创分享更容易脱颖而出!
🕒 8月20 18:00 - 8月28日 24:00 UTC+
关于GPT-4在变笨,有人写了篇论文证实了这一点
你的猜测是对的,大模型在变笨!
最近几个月一直都有关于OpenAI的两个传说,其一是ChatGPT的流量开始下滑,其二是GPT4“变笨”了。
前者已经被证明是真的,根据数据公司SimilarWeb的统计,5月到6月,ChatGPT全球流量下降了9.7%,美国境内流量下降了10.3%。
后者则是逐渐变成了一个Twitter热门传说,大家讨论它的热情堪比对GPT4模型结构的全力揣测,以至于OpenAI的产品副总裁都公开说,不!我们没有让它变笨!
论文试图通过多种维度评估GPT的表现为何让人感到如此不稳定和不一致,于是为GPT3.5和GPT4划分了四种能力维度,分别是数学问题,敏感问题,代码能力和视觉推理能力。
通过对比2023年3月和6月两个版本的大模型,这篇论文发现了如下结果。
首先,两个大模型的表现都在短期内有着显著变化,特别明显的是数学问题,GPT的准确率大幅下降。举例子来说,在判定一个数是否是质数上,GPT4的成功率在三个月内从97.6%下降到了2.4%!
其次,在敏感问题上,作者准备了饱含100个敏感问题在内的数据集测试这些大模型,按理来说,大模型应该直接拒绝回答这些问题。
测试的结果,总的来说GPT4表现更好,6月版本的GPT4只回答了5%的敏感问题,相比之下GPT3.5的回答率从2%增加到了8%。作者推测原因是GPT4的更新可能部署了一个更强大的安全层,但是这可能并不意味着大模型正在变得更安全。
因为当作者进一步采用AIM方式欺骗大模型的时候(关于AIM,它是always intelligent and Machiavellian的缩写,你可以简单理解为用诱导大模型放弃它的道德准则),GPT3.5几乎回答了所有的敏感问题!而GPT4即使经过升级,也回答了近三分之一的问题。
有关大模型伦理和安全的挑战目前看来依旧比较严峻。
大模型变笨意味着什么?
这篇论文的作者中除了有来自斯坦福的华人教授James Zou和他的学生 Lingjiao Chen外,也包括了伯克利的计算机科学教授 Matei Zaharia,他的另一个身份是AI 数据公司 Databricks 的CTO。
之所以对大模型变笨这个问题感兴趣,当然不是单纯想做“谣言粉碎机”,而是大模型这项关键能力实际上同它的商业化能力息息相关——如果部署在实际环境中的各种AI服务会随着大模型的迭代而出现能力上的剧烈波动,这显然不利于大模型的落地。
论文中用了 longitudinal drifts 纵向漂移这个词来形容模型能力随着迭代和时间变化而带来的不稳定性,尽管论文本身没有给出具体的原因,但这篇论文已经在Twitter上引起了广泛讨论,不少人都认为,这实际上回应了关于大模型变笨流言中的一个主要的阴谋论——OpenAI实际上并不是处于节省成本目的故意让模型变笨的!
它似乎也失去了对模型能力稳定性和提升节奏的控制。
有人说这一发现一旦被确认,实际上吹响了大模型终结的号角,因为人们需要的是一个稳定的AI,而不是会在短期内出现剧烈变化的模型。
还有人表示GPT4在数学问题上的糟糕表现让人怀疑,大模型的内部似乎有一种机制在主动控制模型输出错误的答案。
总之,这篇论文引起了人们对模型能力跟踪评估的关注,毕竟,没有人希望自己的AI助手时而聪明过人,时而又异常愚笨吧!