ChatGPT 凌晨重磅更新!新增函數(shù)調用,4 倍上下文長度,還更便宜了。
ChatGPT 突然更新!
今天凌晨,OpenAI 在官網(wǎng)上發(fā)布了所有更新細節(jié),包含以下這幾個方面:
在 Chat Completions API 中增加了新的函數(shù)調用能力
更新了 GPT-4 和 GPT-3.5-Turbo 版本,可操控性更強
為 GPT-3.5-Turbo 增加了 16k 的上下文長度(此前是 4k)
嵌入模型成本降低 75%
GPT-3.5-Turbo 的輸入 token 成本降低 25%
公布了 GPT-3.5-Turbo-0301 和 GPT-4-0314 模型的淘汰時間表
其中備受關注的應該就是新的函數(shù)調用能力,GPT-4 和 GPT-3.5-Turbo 兩個模型的升級,以及各種降成本。
對此,推特網(wǎng)友「寶玉」表示,OpenAI 這次更新的函數(shù)調用功能,本質上是讓 API 直接支持了 Agent 或者 Plugin。
函數(shù)調用
現(xiàn)在,開發(fā)者現(xiàn)在可以向 GPT-4-0613 和 GPT-3.5-turbo-0613 描述函數(shù),并讓模型智能地選擇輸出包含調用這些函數(shù)的參數(shù)的 JSON 對象。
這是一種更可靠地將 GPT 的功能與外部工具和 API 相連的新方法。
這些模型已經(jīng)過微調,既能檢測到何時需要調用函數(shù)(取決于用戶輸入的內容),又能用符合函數(shù)簽名的 JSON 來進行響應。
函數(shù)調用允許開發(fā)者更可靠地從模型中獲得結構化的數(shù)據(jù)。
比如,開發(fā)者可以創(chuàng)建一個聊天機器人,通過調用外部工具(例如,ChatGPT 插件)來回答問題。
具體來說,可以將諸如「給 Anya 發(fā)郵件,看她下周五是否想喝咖啡」這樣的查詢轉換為 send_email (to: string, body: string) 這樣的函數(shù)調用。
或者將「波士頓的天氣如何?」轉換為 get_current_weather (location: string, unit: 'celsius' | 'fahrenheit')。
此外,開發(fā)者還能將自然語言轉換為 API 調用或者數(shù)據(jù)庫查詢。
比如,將「誰是我這個月的十大客戶?」轉換為內部 API 調用,即為:get_customers_by_revenue (start_date: string, end_date: string, limit: int)。
又或者把「Acme, Inc.上個月有多少訂單?」轉換成 SQL 查詢,即為:sql_query (query: string)。
此外,還允許開發(fā)者從文本中提取結構化數(shù)據(jù)。
只需定義一個名為 extract_people_data (people: [{name: string, birthday: string, location: string}] 的函數(shù),就能提取維基百科文章中提到的所有人物。
以前用戶需要在 Prompt 里加一堆描述才能支持 Agent,而現(xiàn)在就簡單多了,只要在 API 請求的時候,傳入一個 functions 參數(shù)即可。
functions 參數(shù)實際上就類似于用戶要指定的 Agent。
注意,這里可以是不止一個 function,function 是一個對象,還可以加上名稱(name)、描述(description)、參數(shù)(parameters)等等。
然后,返回的結果就包含了如下結構化的內容:
function_call:調用的函數(shù)名,和用戶傳入的函數(shù)名稱一致
arguments:JSON 格式的參數(shù)值,包含了用戶調用函數(shù)需要的參數(shù)名稱和值。
比如說:
"function_call": { "name": "get_current_weather", "arguments": "{ \"location\": \"Boston, MA\"}" }
國外網(wǎng)友表示,function 最大的價值就是解決了 GPT 返回數(shù)據(jù)結構化的問題,不再需要用戶輸入復雜的 prompt。
第一步:OpenAI API
第二步:第三方 API
第三步:OpenAI API
模型升級
GPT-4
GPT-4-0613 的主要更新就是上面提到的全新函數(shù)調用功能。
而 GPT-4-32k-0613 的更新,除了包含 GPT-4-0613 的所有更新內容以外,還新增加了更長的上下文長度,從而能更好地理解更長篇幅的文本。
OpenAI 表示,未來幾周內,將會有更多目前在等待名單上的人可以開始使用 GPT-4.
GPT-3.5 Turbo
GPT-3.5-turbo-0613 的更新中具備與 GPT-4 相同的函數(shù)調用功能,并通過系統(tǒng)信息提供了更高的可控性。
這兩個特性將使開發(fā)者能夠更有效地引導 GPT 模型生成的回復。
GPT-3.5-turbo-16k 相較于 GPT-3.5-turbo 擁有 4 倍的上下文長度,但成本是前者的兩倍。
每 1000 個 token 輸入的費用為 0.003 美元,每 1000 個輸出 token 的費用為 0.004 美元。
16k 的上下文長度意味著該模型現(xiàn)在能夠在單次對話中支持約 20 頁長度的文本。
同時,OpenAI 表示,新模型將于 6.27 正式上線,而舊模型將于今年 9.13 后無法再次訪問。
價格更低
最后,OpenAI 發(fā)布的價格降低的新消息也讓不少用戶為之一動。
text-embedding-ada-002 是 OpenAI 最受歡迎的嵌入模型。今天我們將成本降低了 75%,每 1,000 個 token 費用為 0.0001 美元。
而作為最受歡迎的聊天模型 ——GPT-3.5-turbo,其輸入的 token 費用降低了 25%。
開發(fā)者現(xiàn)在能以 0.0015 美元 / 1000 個輸入 token 的價格使用該模型,每 1000 個輸出 token 費用為 0.002 美元,相當于每美元大約能使用 700 頁。
GPT-3.5-turbo-16k 的定價為 0.003 美元 / 每 1000 個輸入 token,而每 1000 個輸出 token 費用為 0.004 美元。
參考資料:
https://openai.com/blog/function-calling-and-other-api-updates
本文來自微信公眾號:新智元 (ID:AI_era)
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。