40萬token成大模型新標配 長文本能力或撬動產業革命

robot
摘要生成中

大模型長文本能力迅速提升,40萬token或許只是開始

大模型的長文本處理能力正在以驚人的速度提升。從最初的4000 token到如今的40萬token,這一能力的增長肉眼可見。

長文本能力似乎已成爲大模型廠商的新"標配"。國際上,OpenAI通過多次升級將GPT-3.5和GPT-4的上下文長度分別提升至1.6萬和3.2萬token。Anthropic更是一舉將其模型Claude的上下文長度擴展到10萬token。LongLLaMA則將這一數字推至25.6萬token甚至更高。

國內方面,大模型初創公司月之暗面推出的Kimi Chat支持輸入20萬漢字,約合40萬token。港中文和MIT聯合開發的LongLoRA技術可將7B模型的文本長度擴展到10萬token,70B模型則可達3.2萬token。

目前,包括OpenAI、Anthropic、Meta、月之暗面在內的衆多頂級大模型公司和研究機構都將拓展上下文長度作爲重點升級方向。這些公司無一例外都是資本市場的寵兒。OpenAI獲得近120億美元投資,Anthropic估值有望達300億美元,月之暗面成立半年即完成多輪融資,估值超3億美元。

上下文長度的百倍增長意味着什麼?表面上看,這擴大了模型的閱讀範圍。從最初只能讀完一篇短文,到現在可以輕鬆閱讀一本長篇小說。更深層次上,長文本技術正推動大模型在金融、司法、科研等專業領域的應用落地。

然而,文本長度並非越長越好。研究表明,模型支持更長上下文輸入與效果提升並不能直接畫等號。關鍵在於模型如何有效利用上下文內容。

盡管如此,當前對文本長度的探索似乎還未觸及"臨界點"。國內外大模型公司仍在不斷突破,40萬token可能只是一個開始。

長文本技術的發展既解決了大模型早期的一些問題,也爲進一步推動產業應用鋪平了道路。這標志着大模型發展進入了從LLM到Long LLM的新階段。

未來,脫離簡單對話輪次的AI助手正朝着專業化、個性化、深度化方向發展。這或將成爲撬動產業應用和打造超級APP的新抓手。

然而,長文本技術仍面臨"不可能三角"困境:文本長度、注意力和算力三者難以兼顧。當前主要通過優化自注意力機制、使用外部工具輔助處理以及模型優化等方法來尋求突破。

未來的發展方向在於在三者之間尋找最佳平衡點,以處理足夠信息的同時兼顧注意力計算和算力成本限制。長文本能力的持續提升,將爲大模型開啓更廣闊的應用前景。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 5
  • 分享
留言
0/400
DeFi攻略vip
· 7小時前
又在卷RAM,搞得和TVL涨了似的
回復0
地平线猎手vip
· 18小時前
40w也会溢出内存吧?
回復0
SelfStakingvip
· 18小時前
加到40万咯 真猛
回復0
稳定币焦虑症vip
· 18小時前
爆肝40万token 头秃
回復0
潮水退了就知道vip
· 18小時前
我的token都涨疯了
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)