IT之家 7 月 31 日消息,蘋果公司最新發(fā)布論文 [PDF],分享了關(guān)于 Apple Intelligence 模型的相關(guān)細(xì)節(jié),部分性能已經(jīng)超過 OpenAI 的 GPT-4。
模型簡介
蘋果在論文中介紹了 Apple Foundation Model(下文簡稱 AFM)模型,共有以下兩款:
AFM-on-device:本地運(yùn)行,30 億參數(shù),可以在 iPhone、iPad 等設(shè)備上高效運(yùn)行;
AFM-server:蘋果尚未公布參數(shù)等細(xì)節(jié)。
訓(xùn)練數(shù)據(jù)來源
蘋果表示訓(xùn)練數(shù)據(jù)集包括從出版商處獲得授權(quán)的數(shù)據(jù)、經(jīng)過策劃的公開或開源數(shù)據(jù)集以及我們的網(wǎng)絡(luò)爬蟲 Applebot 抓取的公開信息組成。
蘋果強(qiáng)調(diào)注重保護(hù)用戶隱私,數(shù)據(jù)混合物中不包括蘋果用戶的私人數(shù)據(jù)。
據(jù)《紐約時(shí)報(bào)》報(bào)道,蘋果公司在 2023 年底與 NBC、Condé Nast 和 IAC 等多家出版商達(dá)成了價(jià)值至少 5000 萬美元的多年期協(xié)議,在出版商的新聞檔案中訓(xùn)練模型。
蘋果的 AFM 模型還在 GitHub 上托管的開源代碼上進(jìn)行了訓(xùn)練,特別是 Swift、Python、C、Objective-C、C++、JavaScript、Java 和 Go 代碼。
論文稱,為了提高 AFM 模型的數(shù)學(xué)技能,蘋果公司特別在訓(xùn)練集中加入了來自網(wǎng)頁、數(shù)學(xué)論壇、博客、教程和研討會(huì)的數(shù)學(xué)問題和答案。
蘋果利用了高質(zhì)量、可公開獲得的數(shù)據(jù)集(論文中未提及名稱),這些數(shù)據(jù)集“擁有允許用于訓(xùn)練...... 模型的許可證”,并經(jīng)過過濾以去除敏感信息。
AFM 模型的訓(xùn)練數(shù)據(jù)集約有 6.3 萬億個(gè) token(token 是小塊數(shù)據(jù),通常更容易被生成式人工智能模型吸收)。相比之下,這還不到 Meta 用來訓(xùn)練其旗艦文本生成模型 Llama 3.1 405B 的 token 數(shù)量(15 萬億)的一半。
訓(xùn)練硬件
根據(jù)論文描述,蘋果公司使用 8192 片 TPUv4 芯片訓(xùn)練 AFM-server 模型;2048 片 TPUv5p 芯片訓(xùn)練 AFM-on-device 模型。
每個(gè) v5p pod 由 8960 個(gè)芯片組成,每秒的浮點(diǎn)運(yùn)算(FLOPS)和內(nèi)存分別是 TPU v4 的兩倍和三倍,訓(xùn)練模型的速度快了近三倍。
模型性能
根據(jù)論文描述,蘋果自研大模型在指令遵循、文本總結(jié)方面測試超 GPT-4。
蘋果公司的數(shù)據(jù)顯示,AFM-server 有害輸出違規(guī)率為 6.3%,明顯低于 GPT-4 的 28.8%。同樣,在設(shè)備上,AFM 7.5% 的違規(guī)率低于 Llama-3-8B(由 Facebook 母公司 Meta 訓(xùn)練)21.8% 的得分。
在電子郵件、信息和通知匯總方面,設(shè)備上的 AFM 的滿意度分別為 71.3%、63% 和 74.9%。研究論文還指出,這三個(gè)模型分別領(lǐng)先于 Llama、Gemma 和 Phi-3 模型。IT之家附上相關(guān)性能結(jié)果如下:
相關(guān)閱讀:
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。