IT之家 1 月 20 日消息,幻方量化旗下 AI 公司深度求索(DeepSeek)今日正式發(fā)布 DeepSeek-R1 模型,并同步開源模型權重。
據(jù)官方介紹,DeepSeek-R1 在后訓練階段大規(guī)模使用了強化學習技術,在僅有極少標注數(shù)據(jù)的情況下,極大提升了模型推理能力。在數(shù)學、代碼、自然語言推理等任務上,性能比肩 OpenAI o1 正式版。
DeepSeek 稱,DeepSeek-R1 蒸餾小模型超越 OpenAI o1-mini。DeepSeek 在開源 DeepSeek-R1-Zero 和 DeepSeek-R1 兩個 660B 模型的同時,通過 DeepSeek-R1 的輸出,蒸餾了 6 個小模型開源給社區(qū),其中 32B 和 70B 模型在多項能力上實現(xiàn)了對標 OpenAI o1-mini 的效果。
登錄 DeepSeek 官網(wǎng)或官方 App,打開“深度思考”模式,即可調(diào)用最新版 DeepSeek-R1 完成各類推理任務。
DeepSeek-R1 API 服務定價為每百萬輸入 tokens 1 元(緩存命中)/ 4 元(緩存未命中),每百萬輸出 tokens 16 元。
IT之家注意到,DeepSeek 已將 DeepSeek-R1 訓練技術全部公開,在發(fā)布并開源 R1 的同時,同步在協(xié)議授權層面也進行了如下調(diào)整:
模型開源 License 統(tǒng)一使用 MIT。我們曾針對大模型開源的特點,參考當前行業(yè)的通行實踐,特別引入 DeepSeek License 為開源社區(qū)提供授權,但實踐表明非標準的開源 License 可能反而增加了開發(fā)者的理解成本。為此,此次我們的開源倉庫(包括模型權重)統(tǒng)一采用標準化、寬松的 MIT License,完全開源,不限制商用,無需申請。
產(chǎn)品協(xié)議明確可“模型蒸餾”。為了進一步促進技術的開源和共享,我們決定支持用戶進行“模型蒸餾”。我們已更新線上產(chǎn)品的用戶協(xié)議,明確允許用戶利用模型輸出、通過模型蒸餾等方式訓練其他模型。
廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。