📢 Gate广场 #创作者活动第一期# 火热开启,助力 PUMP 公募上线!
Solana 爆火项目 Pump.Fun($PUMP)现已登陆 Gate 平台开启公开发售!
参与 Gate广场创作者活动,释放内容力量,赢取奖励!
📅 活动时间:7月11日 18:00 - 7月15日 22:00(UTC+8)
🎁 活动总奖池:$500 USDT 等值代币奖励
✅ 活动一:创作广场贴文,赢取优质内容奖励
📅 活动时间:2025年7月12日 22:00 - 7月15日 22:00(UTC+8)
📌 参与方式:在 Gate 广场发布与 PUMP 项目相关的原创贴文
内容不少于 100 字
必须带上话题标签: #创作者活动第一期# #PumpFun#
🏆 奖励设置:
一等奖(1名):$100
二等奖(2名):$50
三等奖(10名):$10
📋 评选维度:Gate平台相关性、内容质量、互动量(点赞+评论)等综合指标;参与认购的截图的截图、经验分享优先;
✅ 活动二:发推同步传播,赢传播力奖励
📌 参与方式:在 X(推特)上发布与 PUMP 项目相关内容
内容不少于 100 字
使用标签: #PumpFun # Gate
发布后填写登记表登记回链 👉 https://www.gate.com/questionnaire/6874
🏆 奖励设置:传播影响力前 10 名用户,瓜分 $2
40万token成大模型新标配 长文本能力或撬动产业革命
大模型长文本能力迅速提升,40万token或许只是开始
大模型的长文本处理能力正在以惊人的速度提升。从最初的4000 token到如今的40万token,这一能力的增长肉眼可见。
长文本能力似乎已成为大模型厂商的新"标配"。国际上,OpenAI通过多次升级将GPT-3.5和GPT-4的上下文长度分别提升至1.6万和3.2万token。Anthropic更是一举将其模型Claude的上下文长度扩展到10万token。LongLLaMA则将这一数字推至25.6万token甚至更高。
国内方面,大模型初创公司月之暗面推出的Kimi Chat支持输入20万汉字,约合40万token。港中文和MIT联合开发的LongLoRA技术可将7B模型的文本长度扩展到10万token,70B模型则可达3.2万token。
目前,包括OpenAI、Anthropic、Meta、月之暗面在内的众多顶级大模型公司和研究机构都将拓展上下文长度作为重点升级方向。这些公司无一例外都是资本市场的宠儿。OpenAI获得近120亿美元投资,Anthropic估值有望达300亿美元,月之暗面成立半年即完成多轮融资,估值超3亿美元。
上下文长度的百倍增长意味着什么?表面上看,这扩大了模型的阅读范围。从最初只能读完一篇短文,到现在可以轻松阅读一本长篇小说。更深层次上,长文本技术正推动大模型在金融、司法、科研等专业领域的应用落地。
然而,文本长度并非越长越好。研究表明,模型支持更长上下文输入与效果提升并不能直接画等号。关键在于模型如何有效利用上下文内容。
尽管如此,当前对文本长度的探索似乎还未触及"临界点"。国内外大模型公司仍在不断突破,40万token可能只是一个开始。
长文本技术的发展既解决了大模型早期的一些问题,也为进一步推动产业应用铺平了道路。这标志着大模型发展进入了从LLM到Long LLM的新阶段。
未来,脱离简单对话轮次的AI助手正朝着专业化、个性化、深度化方向发展。这或将成为撬动产业应用和打造超级APP的新抓手。
然而,长文本技术仍面临"不可能三角"困境:文本长度、注意力和算力三者难以兼顾。当前主要通过优化自注意力机制、使用外部工具辅助处理以及模型优化等方法来寻求突破。
未来的发展方向在于在三者之间寻找最佳平衡点,以处理足够信息的同时兼顾注意力计算和算力成本限制。长文本能力的持续提升,将为大模型开启更广阔的应用前景。