從上海人工智能實驗室獲悉,其書生大模型今日獲得重要版本升級 —— 書生 浦語 3.0(InternLM3)。據官方介紹,其通過精煉數據框架大幅提升了數據效率,實現思維密度的躍升。
InternLM3-8B-Instruct 僅使用 4T 數據訓練,官方宣稱其綜合性能超過同量級開源模型,節約超 75% 訓練成本;首次在通用模型中實現了常規對話與深度思考能力融合,可應對更多真實使用場景。


基于司南 OpenCompass 開源評測框架,該模型研究團隊使用統一可復現的方法對該模型進行評測。評測采用 CMMLU、GPQA 等十多個權威評測集,維度包括推理、數學、編程、指令跟隨、長文本、對話及綜合表現等多方面性能,結果顯示,書生 浦語 3.0 在大多數評測集得分領先,綜合性能“十分接近 GPT-4o-mini”。

上海 AI 實驗室披露了部分該模型的體驗案例,如解答“箭頭迷宮問題”等推理謎題,讓模型在棋盤格中找到從起點到終點的可行路徑。


以及“猜數字”問題:

此外,其深度思考能力也拓展到了智能體任務,成為了開源社區內首個支持瀏覽器使用的通用對話模型,支持 20 步以上網頁跳轉以完成深度信息挖掘。
體驗頁面:https://internlm-chat.intern-ai.org.cn
GitHub鏈接:https://github.com/InternLM/InternLM
HuggingFace鏈接:https://huggingface.co/internlm
ModelScope鏈接:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm3-8b-instruct