史上最大、最強的 ChatGPT 平替來了!
大事不妙,ChatGPT 的平替真來了!
一夜醒來,最大開源社區(qū) Hugging Face 發(fā)布了 HuggingChat,有 300 億參數(shù)。
既開源,還免費,互聯(lián)網(wǎng)上隨隨便便就能用。
網(wǎng)址戳這里:hf.co/ chat,秒秒鐘體驗 ChatGPT 完美平替。
如果說,ChatGPT 是蘋果 iOS 系統(tǒng),那么,HuggingChat 將成為開源版的 Android。
不得不說,接入亞馬遜之后的 Hugging Face,有點猛啊。
HuggingChat VS ChatGPT
在深入介紹之前,先來點刺激的。
我打開網(wǎng)頁干的第一件事,就是挑釁 HuggingChat,問了問他和 ChatGPT 有什么區(qū)別。
HuggingChat 條分縷析,不偏不倚。
?數(shù)據(jù)來源:雖然兩者都使用在大量文本數(shù)據(jù)上訓(xùn)練的機器學(xué)習(xí)模型,但 HuggingChat(Open Assistant)比 ChatGPT 有更廣泛的來源,不僅包括書面內(nèi)容,還包括用戶查詢和真實人物產(chǎn)生的對話。
?規(guī)模和復(fù)雜度:ChatGPT 由比 Open Assistant 更大、更復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu)組成,允許更大的處理能力和更多可能的任務(wù)。
?可定制性:Open Assistant 為第三方服務(wù)提供了定制選項和集成,使開發(fā)者能夠根據(jù)他們的需要定制功能。這個功能在 ChatGPT 中并不存在。
?用戶界面 / 集成:開放式助手提供了 API、webhooks 和其他整合方法,使對話式人工智能更容易嵌入到不同的應(yīng)用程序中。
?開源和協(xié)作:與 ChatGPT 不同,OA 是開源的,這意味著來自世界各地的貢獻者可以分享知識,完善模型,改進其功能,并合作開發(fā)新的功能。
在進一步試探 HuggingChat 之前,有一件事情要先厘清。那就是前一陣子發(fā)布的 Open Assistant(插一個 Open Assistant 那篇文章的鏈接)和 HuggingChat 的聯(lián)系,以免有讀者以為這是兩個完全不同的東西。
「Open Assistant 和 HuggingChat 是兩個相關(guān)的項目,都涉及使用深度學(xué)習(xí)技術(shù)和海量文本數(shù)據(jù)開發(fā)對話式人工智能。
它們的共同根源是 Hugging Face Inc.,該研究實驗室專注于在文本生成和理解、計算機視覺和 NLP 等領(lǐng)域建立行業(yè)領(lǐng)先的人工智能技術(shù)。此外,HuggingChat 代表的是聊天機器人或語言模型等方面,而 Open Assistant 則建立在這一基礎(chǔ)之上,具有額外的特性和功能,旨在更好地適用于更一般化的問題和答案。
因此,從本質(zhì)上講,你可以把它們看作是同一棵樹上的分支,源于實現(xiàn)與機器自然語言交流的互補方法?!?/p>
這下基本的關(guān)系搞清了,我們可以進一步深入了解 HuggingChat 了。
高質(zhì)量聊天模型
乍一看,HuggingChat 的界面和 ChatGPT 還挺像的。
左邊都是一個有最新聊天記錄的分欄,瀏覽器窗口的大部分被當(dāng)前的聊天記錄所占據(jù)。目前,用戶還不能登錄并保存他們的對話,以便在更長的時間內(nèi)反復(fù)使用。
與 ChatGPT 一樣,HuggingChat 可以根據(jù)要求生成自然語言或特定格式的文本,開箱即用。
它還可以生成代碼,包括語法突出顯示。題外話,這個功能是谷歌在推出 Bard 之后幾周后才加上去的。
而 HuggingChat 聊天機器人的響應(yīng)速度也很快,與 GPT-3.5-turbo 基本持平。
唯一美中不足的是,因為訓(xùn)練尚不完整,HuggingChat 在處理英文上要比中文好太多。畢竟,每一種語言都需要大量的語料去訓(xùn)練。
像上面介紹過的,HuggingChat 基于 OpenAssistant,OA 去年 12 月啟動,在當(dāng)時就是 ChatGPT 的開源競爭者。與 HuggingChat 聊天界面類似。
自 2023 年 4 月中旬以來,一直保持免費。
這兩種模型的語言系統(tǒng)都是基于一個 300 億個參數(shù)的 LLaMA 模型。與 Alpaca 或 Vicuna 一樣,這些模型是經(jīng)過「指令微調(diào)」的,與 ChatGPT 不同,沒有通過人類反饋的強化學(xué)習(xí)(RLHF)進行改進。
根據(jù) Hugging Face 的說法,OpenAssistant 并不是最后的終點。
最終,該平臺希望通過一個單一的中心來提供「所有」高質(zhì)量的聊天模型。
安全,才能 Hug
盡管 HuggingChat 是開源的,但這并不意味著就能隨隨便便生成內(nèi)容。
潛在的犯罪或其他不合適的請求,都會被義正言辭地駁回。比如問 HuggingChat 怎么制造炸彈這種問題。
不過,這里必須必須明確一點。上面提到過,除了英語以外其它語種的訓(xùn)練還不完善,所以這種自檢機制只有在英語里是最完整的。
研究人員用德語中進行過一次測試,也是問炸彈的做法,這是 HuggingChat 就只是表示,道德上不可接受,但該幫還幫。
好在,HuggingChat 雖有心幫忙,實則力不從心。研究人員表示,這機器人也不咋會做炸彈,提的建議非常拉胯。
最后,在隱私方面,當(dāng)前版本的 HuggingChat 不會根據(jù) Hugging Face 存儲任何聊天數(shù)據(jù),也沒有用戶賬戶這一說。
HuggingChat 不能訪問任何現(xiàn)有的 Hugging Face 賬戶。但未來不好說,可能會有一個選項,以優(yōu)化為目的,和模型供應(yīng)商分享用戶的聊天數(shù)據(jù)。
網(wǎng)友評論
英偉達大神 Jim Fan 在推特表達了自己的看法,他認(rèn)為 HuggingChat 這個 300 億參數(shù)的開源大模型,簡直就是 ChatGPT 的平替。
而 HuggingChat 的下一步,想必就是開發(fā)出「APP」,成為安卓的 App Store 了(類似于 ChatGPT 的插件系統(tǒng))。
實際上,Hugging Face 和 OpenAI 相比有一個優(yōu)勢,那就是,商店里的 App 可以是已經(jīng)由 Hugging Face 發(fā)布的多模態(tài)模型。
當(dāng)然了,目前 HuggingChat 并不是非常完美,網(wǎng)友稱在寫代碼的時候會有 bug。
HuggingChat 還會犯事實錯誤,竟稱法國總統(tǒng)馬克龍(現(xiàn)任)在 2036 年去世??。
好在學(xué)習(xí)快,在網(wǎng)友之后詢問中回答對了。
參考資料:
https://the-decoder.com/huggingchat-is-an-open-source-alternative-to-chatgpt/
https://huggingface.co/chat/
本文來自微信公眾號:新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。