IT之家 5 月 21 日消息,字節(jié)跳動在 5 月 15 日的“春季火山引擎 FORCE 原動力大會”中推出了豆包大模型(原名“云雀”),該模型主要面向行業(yè)場景,能夠提供多種圖文音頻生成能力,IT之家整理如下:
豆包通用模型 pro:字節(jié)跳動自研 LLM 模型專業(yè)版,支持 128k 長文本,全系列可精調,具備更強的理解、生成、邏輯等綜合能力,適配問答、總結、創(chuàng)作、分類等豐富場景;
豆包通用模型 lite:字節(jié)跳動自研 LLM 模型輕量版,對比專業(yè)版提供更低 token 成本、更低延遲,為企業(yè)提供靈活經(jīng)濟的模型選擇;
豆包?角色扮演模型:個性化的角色創(chuàng)作能力,更強的上下文感知和劇情推動能力,滿足靈活的角色扮演需求;
豆包?語音合成模型:提供自然生動的語音合成能力,善于表達多種情緒,演繹多種場景;
豆包?聲音復刻模型:可在 5 秒內實現(xiàn)聲音 1:1 克隆,對音色相似度和自然度進行高度還原,支持聲音的跨語種遷移;
豆包?語音識別模型:更高的準確率及靈敏度,更低的語音識別延遲,支持多語種的正確識別;
豆包?文生圖模型:更精準的文字理解能力,圖文匹配更準確,畫面效果更優(yōu)美,擅長對中國文化元素的創(chuàng)作;
豆包?Function call 模型:提供更加準確的功能識別和參數(shù)抽取能力,適合復雜工具調用的場景;
豆包?向量化模型:聚焦向量檢索的使用場景,為 LLM 知識庫提供核心理解能力,支持多語言。
今日火山引擎官網(wǎng)更新了豆包大模型的定價詳情,號稱“在模型推理定價大幅低于行業(yè)價格的基礎上,豆包通用模型的 TPM、RPM 均達到國內最高標準”、“價格比行業(yè)低 99%,TPM 限額則達同規(guī)格模型的 2.7 倍到 8 倍”;此外,相關模型還可使用“預付費”、“后付費”模式:
以豆包通用模型 pro-32k 為例: 按照 “預付費”模型單元價格計算,10K TPM 的包月價格為 2000 元。10K*60*24*30=43200K。
即 432000K Tokens 的價格為 2000 元,平均價格為 0.0046 元 / 千 Tokens。按照“后付費”模式計算:在模型推理的計算成本中,推理輸入通常占絕大部分比例,業(yè)界一般認為推理輸入是輸出的 5 倍。
根據(jù)豆包通用模型 pro-32k 推理輸入 0.0008 元 / 千 Tokens、推理輸出 0.002 元 / 千 Tokens 計算,模型推理的綜合價格為 0.001 元 / 千 Tokens。
官方表示,國內其他競品模型的 TPM 限額大多在 100K 到 300K 之間,RPM 則是在 60 到 120 區(qū)間,輕量級模型的 RPM 限額相對較高,但僅僅在 300 到 500 之間。按照 10K RPM 限額計算,企業(yè)客戶平均每秒可以同時調用 167 次豆包通用模型,從而滿足絕大多數(shù)業(yè)務場景在生產(chǎn)系統(tǒng)的大模型應用需求。
官方同時強調,相關標準已經(jīng)達到 OpenAI 為高級別客戶( Tier4 及 Tier5 等級客戶)提供的 RPM 上限。在算力挑戰(zhàn)更大的長文本模型上,豆包通用模型 pro 和 lite 的 128k 版本,模型限流為 1K RPM 和 400K TPM,同樣大幅高于國內其他的 128k 長文本模型,能夠幫助企業(yè)以較低成本使用大模型、加速大模型應用落地。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。