
PANews 10月29日消息,OpenAI今日發佈開源安全推理模型gpt-oss-safeguard(120b、20b),允許開發者在推理時提供自定義政策進行内容分類,模型輸出結論與推理鏈。該模型基於開放權重gpt-oss微調,採用Apache 2.0許可,可從Hugging Face下載。内部評測顯示其在多政策準確性上優於gpt-5-thinking與gpt-oss,外部數據集表現接近Safety Reasoner。局限包括:在大量高質量標注場景下傳統分類器仍更優、推理耗時與算力較高。ROOST將建立模型社區並發佈技術報告。
内容來源:PANews
更多精彩內容,請登陸
財華香港網 (https://www.finet.hk/)
現代電視 (http://www.fintv.com)