📢 #Gate广场征文活动第二期# 正式啓動!
分享你對 $ERA 項目的獨特觀點,推廣ERA上線活動, 700 $ERA 等你來贏!
💰 獎勵:
一等獎(1名): 100枚 $ERA
二等獎(5名): 每人 60 枚 $ERA
三等獎(10名): 每人 30 枚 $ERA
👉 參與方式:
1.在 Gate廣場發布你對 ERA 項目的獨到見解貼文
2.在貼文中添加標籤: #Gate广场征文活动第二期# ,貼文字數不低於300字
3.將你的文章或觀點同步到X,加上標籤:Gate Square 和 ERA
4.徵文內容涵蓋但不限於以下創作方向:
ERA 項目亮點:作爲區塊鏈基礎設施公司,ERA 擁有哪些核心優勢?
ERA 代幣經濟模型:如何保障代幣的長期價值及生態可持續發展?
參與並推廣 Gate x Caldera (ERA) 生態周活動。點擊查看活動詳情:https://www.gate.com/announcements/article/46169。
歡迎圍繞上述主題,或從其他獨特視角提出您的見解與建議。
⚠️ 活動要求:
原創內容,至少 300 字, 重復或抄襲內容將被淘汰。
不得使用 #Gate广场征文活动第二期# 和 #ERA# 以外的任何標籤。
每篇文章必須獲得 至少3個互動,否則無法獲得獎勵
鼓勵圖文並茂、深度分析,觀點獨到。
⏰ 活動時間:2025年7月20日 17
40萬token成大模型新標配 長文本能力或撬動產業革命
大模型長文本能力迅速提升,40萬token或許只是開始
大模型的長文本處理能力正在以驚人的速度提升。從最初的4000 token到如今的40萬token,這一能力的增長肉眼可見。
長文本能力似乎已成爲大模型廠商的新"標配"。國際上,OpenAI通過多次升級將GPT-3.5和GPT-4的上下文長度分別提升至1.6萬和3.2萬token。Anthropic更是一舉將其模型Claude的上下文長度擴展到10萬token。LongLLaMA則將這一數字推至25.6萬token甚至更高。
國內方面,大模型初創公司月之暗面推出的Kimi Chat支持輸入20萬漢字,約合40萬token。港中文和MIT聯合開發的LongLoRA技術可將7B模型的文本長度擴展到10萬token,70B模型則可達3.2萬token。
目前,包括OpenAI、Anthropic、Meta、月之暗面在內的衆多頂級大模型公司和研究機構都將拓展上下文長度作爲重點升級方向。這些公司無一例外都是資本市場的寵兒。OpenAI獲得近120億美元投資,Anthropic估值有望達300億美元,月之暗面成立半年即完成多輪融資,估值超3億美元。
上下文長度的百倍增長意味着什麼?表面上看,這擴大了模型的閱讀範圍。從最初只能讀完一篇短文,到現在可以輕鬆閱讀一本長篇小說。更深層次上,長文本技術正推動大模型在金融、司法、科研等專業領域的應用落地。
然而,文本長度並非越長越好。研究表明,模型支持更長上下文輸入與效果提升並不能直接畫等號。關鍵在於模型如何有效利用上下文內容。
盡管如此,當前對文本長度的探索似乎還未觸及"臨界點"。國內外大模型公司仍在不斷突破,40萬token可能只是一個開始。
長文本技術的發展既解決了大模型早期的一些問題,也爲進一步推動產業應用鋪平了道路。這標志着大模型發展進入了從LLM到Long LLM的新階段。
未來,脫離簡單對話輪次的AI助手正朝着專業化、個性化、深度化方向發展。這或將成爲撬動產業應用和打造超級APP的新抓手。
然而,長文本技術仍面臨"不可能三角"困境:文本長度、注意力和算力三者難以兼顧。當前主要通過優化自注意力機制、使用外部工具輔助處理以及模型優化等方法來尋求突破。
未來的發展方向在於在三者之間尋找最佳平衡點,以處理足夠信息的同時兼顧注意力計算和算力成本限制。長文本能力的持續提升,將爲大模型開啓更廣闊的應用前景。