輝達(NVIDIA)15 日發表全新 Nemotron 3 系列開源模型,涵蓋 Nano、Super 與 Ultra 三種版本,主打高效率推論、長上下文推理與高度開放性,鎖定快速成長的多代理(Agentic AI)應用市場。NVIDIA 指出,Nemotron 3 以全新混合式 Mamba-Transformer 專家混合(MoE)架構 為核心,專為長時間、多步驟代理協作任務打造。
隨著企業 AI 系統逐步從單一對話模型,轉向由檢索、規劃、工具調用與驗證等多個代理共同運作的架構,模型除需具備高準確度外,亦必須兼顧吞吐量與長上下文穩定性。NVIDIA 表示,Nemotron 3 透過 Mamba 模組強化長序列狀態追蹤能力,再結合 Transformer 的精準注意力機制,並以 MoE 僅啟動部分專家的方式,大幅降低推論成本、提升每秒 token 產出。
在訓練策略上,Nemotron 3 採用 多環境強化學習(RL),透過開源 NeMo Gym 在多種真實代理場景中進行後訓練,讓模型能穩定完成多步驟任務、工具呼叫與結構化規劃,降低長流程推理時的偏移風險。相關強化學習環境與資料集亦同步開放,供開發者依產業需求客製化模型。
Nemotron 3 另一大特色為 原生支援 100 萬 token 上下文視窗,可在單一推理流程中保留完整文件、長時間對話紀錄與多階段計畫,減少過往仰賴切片檢索造成的語意斷裂問題。NVIDIA 指出,此特性特別適合企業級 RAG、程式碼庫分析與長時間代理任務。
首波推出的 Nemotron 3 Nano 已正式上線,定位為高吞吐、低成本的代理模型。根據第三方機構 Artificial Analysis 評測,Nemotron 3 Nano 在同級模型中展現領先的推論效率與準確度。後續 Nemotron 3 Super 與 Ultra 預計於 2026 年上半年推出,將進一步強化推理深度與效率,擴大 NVIDIA 在開源 AI 與多代理系統的技術布局。
更多中時新聞網報導不是記憶體!AI最大黑洞現形 廣達副董示警「明年最大挑戰」 台達電、光寶科等6檔尬電你手上有?謝金河點名這20檔 股民超剉:死亡筆記本不是南亞科、華邦電!大咖投顧上修1記憶體目標價 「明年賺4股本」喊話台塑集團封測廠拉回再買
讀者評論 (0)
請登入後發表評論
分享您的觀點,與其他讀者互動
立即登入尚無評論
成為第一個發表評論的人吧!