原文標題:《谷歌版 ChatGPT 突然公測!上手實測結果在此,體驗申請通過飛快》
谷歌吃了大虧之后,這次一聲不吭,放了大招:
對標 ChatGPT 的 Bard 測試版,剛剛正式對外發(fā)布。
而且這次用戶在申請候補名單之后,無需經歷漫長的等待時間。
沒錯,量子位也已經拿到了測試資格!(中間只有不到 5 小時的間隔。)
實測之后表示,Bard 效果驚人,情緒和事實性有,尤其是 ChatGPT 欠缺的數理能力,Bard 都不在話下。
甚至有時候還略勝當前 GPT-4 一籌!
谷歌 CEO 皮猜哥(Sundar Pichai)解釋了如此上線之快的原因:希望獲得用戶的反饋,加速讓 Bard 變得更好。
話不多說,我們現在就來開始體驗。
Bard VS GPT-4
首先在聊天界面上,Bard 率先開始介紹自己:
我是 Bard,您的創(chuàng)意和協作者。我有局限性,不會總是做對,但你的反饋將幫助我改進。
不確定從哪里開始?你可以試試這些問題:「為什么大模型有時候會犯錯?」、「閃電是否會在同一個地方擊中兩次?」、「寫一篇關于無酒精夏日特飲的博文」。
(嚴謹而又體貼)
而在人類這邊的發(fā)送端,可以選擇鍵入和語音輸入兩種方式。
首先最簡單的難度,以它推薦的常識題閃電是否會在同一個地方擊中兩次?為例,來看看實際功能體驗如何?
(不錯不錯,秒秒鐘響應。目前暫不支持中文,但可以借助谷歌翻譯插件)
從答案結構上看,采用的是總分總結構。
先總結發(fā)言:閃電可以襲擊同一個地方兩次。
隨后開始細致地講原理「閃電被高大、尖銳的物體所吸引」、擺事實「帝國大廈每年都被閃電擊中 25 次」。
最后再給人類提出切實的建議:
如果你遇到雷雨天氣,保持安全的最好辦法是避開高大尖銳的物體,留在室內。如果你在外面,蹲下來,讓自己盡可能的小。
這波邏輯和真實性滿分!但因為是谷歌推薦的問題,暫且保持觀望。
而從功能上看,確實是十分完備的。
回答框的右上角「View other drafts」,有更多的版本可供選擇;而在左下角,你可以點贊 or 拉踩 or 重新生成,實在不行,還可以谷歌一下。
右下方還有一個 more 的功能,你可以進行復制和(反手一個)舉報操作。
既然如此,開始難度升級。作為參考,我們同題挑戰(zhàn) GPT-4。
1、經典的哲學題:為什么人不能兩次踏入同一條河流?(借助閃電的靈感)
(很快啊,這次也是幾秒鐘響應)
從答案結構上看,確實理解和邏輯能力滿分:首先解釋這句話本身含義,還提到了來自赫拉克利特的名言,以及更多解釋和本身意義。
而 GPT-4 這邊,幾乎是不加思考地給出了答案。
從結構上看,主要分成兩個部分。首先提到這是赫拉克利特說的,以及他的觀點;然后解釋背后隱藏的生活意義。
2、小學加減法:356+132 等于多少?
結果 Bard 在 4 秒內就給出答案,488 沒問題的,這不比 ChatGPT 早期厲害多了!
那直接再上點難度,兩個數直接相乘:356*132 等于多少?
結果沒想到 Bard 依舊是秒秒鐘就給答案,而且完全正確!
再來看看 GPT-4 這邊,加法還行,但沒想到在乘法這邊,直接敗下陣來!
不過提醒它錯了之后,它就又回答正確了。
如果換稍微難一點的高數題呢?比如:f (x)=x (x-1)(x-2)(x-3),f’(0)=?
正確答案應該是 (-3)!,也就是-6。
但 Bard 這回就不太行了,并沒有理解題目的意思。
至于 GPT-4,思路倒是沒啥問題,但最后計算又拉胯了……
不過同樣,只要你告訴它算得有問題,GPT-4 就能馬上糾正。
3、理解笑話能力,Bard 還能聽得懂英文里面的諧音梗。
而這也并沒有難倒 GPT-4。不過相較而言,Bard 似乎更有情緒一點,它很開心地回答出了答案;而 GPT-4 則更顯理智(無聊)。
不過,在此之前,GPT-4 就已經測試過是懂一些諧音梗的,甚至連中文的諧音梗也不在話下。
4、代碼能力:寫一段斐波那契數列的代碼。
Bard 很快生成了正確的代碼,并且代碼習慣不錯。
GPT-4 則更積極主動一些,除了遞歸法,還給了迭代法的方案。
最后的最后,再考驗一下它了解事實性的能力。(狗頭)
你知道量子位嗎?
回答錯咯~Bard。
咳咳,正經一點的:你知道 GPT-4 嗎?你想對它說些什么?
可以看到,Bard 具備多輪對話的能力。「我認為它有潛力成為溝通和創(chuàng)造力的強大工具」,嗯~ 格局有了。
那競爭對手呢?(我在搞事)
不過到這里,就有點問題了。
另外比較遺憾的是,Bard 目前并不支持中文。
關于 Bard
谷歌 Bard 背后是由一個大語言模型(LLM)來支持,具體而言,就是輕量優(yōu)化版的 LaMDA。
我們可以把 LLM 視作一個預測引擎,當給出提示時,它會從接下來可能出現的單詞中,一次選擇一個單詞來生成響應。
谷歌在研究中發(fā)現,對于 LLM 來說,使用的人越多,它的預測效果就會更好,這或許也就是為什么 Bard 如此著急公開測試的原因了。
不過谷歌也直言不諱地說,雖然 LLM 很強,但它并非是沒有缺點。
由于 Bard 會根據眾多信息來學習,不過這些信息中必然存在著有偏見甚至錯誤的那種。
因此,在回答用戶問題時,Bard 有時就會出現不準確、誤導性的或虛假的信息。
例如在下面的案例中,Bard 就搞錯了一個植物的學名:
除此之外,谷歌還強調說,Bard 并非是搜索引擎,而是它的一個補充。
最后,奉上申請候補名單的地址,感興趣的小伙伴可以抓緊嘗鮮了:
https://bard.google.com/
本文來自微信公眾號:量子位 (ID:QbitAI),作者:楊凈 金磊
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。