
PANews 2月27日消息,在業界對新一代旗艦模型DeepSeek V4的翹首期盼中,DeepSeek團隊卻悄然放出了一篇新的學術論文。新論文介紹了一個名為DualPath的創新推理係統,專門針對智能體工作負載下的大模型(LLM)推理性能進行優化。通過引入“雙路徑讀取KV-Cache(類似記憶緩存)”機制,重新分配存儲網絡負載,將離綫推理吞吐量最高提升1.87倍,在綫服務的每秒智能體運行數平均提升1.96倍。論文在引言部分提到,大模型正從單輪對話機器人和獨立推理模型,快速演進為智能體係統 ——能夠自主規劃、調用工具,並通過多輪交互解決實際任務。這種應用範式的轉變,推動大模型推理工作負載發生重大變革:從傳統的人類-大模型交互,轉向人類-大模型-環境交互,交互輪次可達數十甚至數百輪。
内容來源:PANews
財華網所刊載內容之知識產權為財華網及相關權利人專屬所有或持有。未經許可,禁止進行轉載、摘編、複製及建立鏡像等任何使用。
如有意願轉載,請發郵件至 content@finet.com.hk,獲得書面確認及授權後,方可轉載。