【新智元導(dǎo)讀】前段時間,OpenAI CEO Sam Altman 和 CTO Mira Murati 在 WSJ 的專訪里,探討了 AGI、未來 GPT 的發(fā)展、以及 AI 對人類的影響。
「OpenAI 的最終目標(biāo)為什么是 AGI?什么是 AGI?」
「ChatGPT 以及其他語言模型的用途是什么?」
「人類與人工智能的關(guān)系在未來會發(fā)生什么變化?」
在 2023 年《華爾街日報》(WSJ)的科技新聞發(fā)布會上,OpenAI 的首席執(zhí)行官 Sam Altman 和首席技術(shù)官 Mira Murati 討論了人工通用智能(AGI)、未來 GPT 模型的發(fā)展,以及人工智能對人類的影響。
而九年前,Sam Altman 在《華爾街日報》會議上表示人工智能導(dǎo)致人類失業(yè),是個不需要太擔(dān)心的很久以后才會發(fā)生的事。
不到十年時間,Altman 和他共同創(chuàng)立的公司 OpenAI 發(fā)布了名為 ChatGPT 的人工智能聊天機(jī)器人。
它能夠撰寫電子郵件、商業(yè)計劃、甚至是代碼,而這在九年前是難以想象的。
在討論當(dāng)下人工智能對人類社會帶來的沖擊和影響時,Altman 仍然樂觀,但比九年前更加慎重。
OpenAI 的終極目標(biāo):AGI
AGI,這個概念從誕生起,就被人們賦予了無限美好的想象。
Altman 同樣如此,他認(rèn)為 AGI 會是人類有史以來最杰出的造物。
有了這個偉大的工具,人類就能夠解決現(xiàn)今世界上的各種問題,并為人類自己、彼此和世界創(chuàng)造出難以想象的新鮮事物。
那時候,人類會有更具創(chuàng)意的自我表現(xiàn)手段。但 Altman 肯定,這些變化將為人類帶來巨大的好處。
「再過九年,華爾街日報邀請我時,你們可能會提問:那時候我們?yōu)槭裁磿J(rèn)為人類不想要 AGI 到來呢?」
那么 AGI 將會在什么時候出現(xiàn)?人們又要如何分辨 AGI 的到來?
Altman 將 AGI 定義為我們還沒有的東西。十年前,人們可能會覺得像 GPT-4 或 GPT-5 就是 AGI。
但現(xiàn)在,GPT-4 只是被人們看作為一個還不錯的「小聊天機(jī)器人」。
人們對 AGI 的基準(zhǔn)門檻要求變得越來越高,這要求人們對人工智能付出的努力也越來越多。
Altman 表示,「人類現(xiàn)在已經(jīng)足夠接近 AGI 的閾值,提升 AI 的能力變得不那么重要。我們當(dāng)前面臨的問題是如何定義 AGI?!?/p>
GPT-5:解決「幻覺」與數(shù)據(jù)版權(quán)問題
OpenAI 自成立后已發(fā)布了多個版本的 GPT,每個版本都比上一個更強(qiáng)大。
今年 3 月,OpenAI 發(fā)布了最新的模型 ——GPT-4。但關(guān)于 OpenAI 的下一個模型,人們依舊充滿了期待:GPT-5 是否正在研發(fā)?
面對這個問題,OpenAI 的 CTO Mira Murati 的回答是,「我們還沒到這一步」。
但她也表示,OpenAI 一直致力于下一件事,如減少模型幻覺:未來發(fā)布的 GPT-5 將致力于解決現(xiàn)在困擾模型的幻覺問題。
Mira 表示,雖然 GPT-4 已經(jīng)在幻覺問題上取得了很大的進(jìn)展,但離完全解決幻覺問題還有一段距離。
但 OpenAI 一直沿著解決問題的正確的軌道:人類反饋強(qiáng)化學(xué)習(xí)(RLHF),讓模型輸出真正可靠的內(nèi)容。
并且,OpenAI 還通過整合多種技術(shù)來減少模型幻覺問題,如為模型增加檢查和搜索的能力,為模型提供更多的事實數(shù)據(jù),以保證用戶能夠從模型中獲得更多的事實輸出。
但對 OpenAI 來說,版權(quán)一直是個爭議。
不僅是用來訓(xùn)練模型的數(shù)據(jù)、模型生成的內(nèi)容也常常涉及到版權(quán)保護(hù)問題。
多個出版商、以及作家都對 OpenAI 的侵權(quán)行為多有抗議。
而 Altman 從另一個角度討論了數(shù)據(jù)使用以及數(shù)據(jù)所有權(quán)問題。
在未來,OpenAI 的新模型將成為每個人都能使用的基礎(chǔ)設(shè)施,這意味著思考數(shù)據(jù)所有權(quán)和經(jīng)濟(jì)流動的方式都會發(fā)生改變。
現(xiàn)在,OpenAI 正在努力與不同的數(shù)據(jù)版權(quán)所有者建立合作關(guān)系,但隨著模型的智能和能力變得越來越強(qiáng),未來訓(xùn)練模型所需的數(shù)據(jù)也會變得越來越少。
但當(dāng)前的模型,在訓(xùn)練時仍然需要盡可能多的人類所生產(chǎn)的每個數(shù)據(jù)。不過,Altman 表示這不會是模型未來長期發(fā)展的路徑,因為未來真正重要的是有價值的數(shù)據(jù)。
隨著 OpenAI 在技術(shù)上的進(jìn)步,關(guān)于數(shù)據(jù)和所有權(quán)的討論將會發(fā)生轉(zhuǎn)變。
人類與 AI 的未來
首先是人類與 AI 的關(guān)系問題。
9 月 25 日,OpenAI 為 GPT-4 加入了更多的個性化功能?,F(xiàn)在,ChatGPT 可以看、聽和說話。
新增的 GPT-4 的語音功能相當(dāng)人性化,與人的交流十分自然。
可以預(yù)見的是,無處不在的 AI 即將成為人類生活的現(xiàn)實。
未來,我們無法避免與人工智能的交互,而這帶來了一個問題:人類應(yīng)該如何對待自己與人工智能的關(guān)系。
而訓(xùn)練模型的 OpenAI 以及其他公司,在某種程度上能夠控制與人們締結(jié)起關(guān)系的人工智能。
這將是一個令人不安的未來,這些人工智能很可能會成為人類的朋友、甚至是伴侶。
但 Altman 明確表示,自己不希望人們與人工智能建立起超出人類朋友的親密關(guān)系:人工智能與人類不同,也許這些系統(tǒng)充滿了個性,但這與人性無關(guān)。
因此,與人工智能交流時,要和人類交流有所區(qū)別。
「我們之所以將模型命名為 ChatGPT 而不是一個人的名字,是為了讓用戶明確和自己交流的是一個人工智能,而不是真正的人類。」Altman 強(qiáng)調(diào)了這點。
但就像人們擁有有很多不同的關(guān)系那樣,人也會與人工智能建立起特別的關(guān)系。但最終,人們會意識到人工智能與人類是不同的,但我們與其建立起的關(guān)系不會因此而破裂。
另一方面,AI 的迅速發(fā)展也讓人們擔(dān)心其帶來的不可控風(fēng)險:利用這些系統(tǒng)進(jìn)行犯罪以及對就業(yè)市場的沖擊。
如命令 AI 入侵計算機(jī)系統(tǒng)或設(shè)計生化武器等。
這并非是遙不可及的未來,從生成式 AI 潮爆發(fā)后,利用 AI 進(jìn)行詐騙和網(wǎng)絡(luò)攻擊的行為已屢見不鮮。
但 Altman 認(rèn)為,在技術(shù)發(fā)展的過程中,這些負(fù)面的影響是不可避免的。
我們要去解決的是技術(shù)帶來的風(fēng)險,而不是放棄發(fā)展。后者對人類來說,仍然是一種道德上的失敗。
而在人類歷史上,幾乎每一次技術(shù)革命都會深刻地影響就業(yè)市場,或是發(fā)生徹底的顛覆或是一半的工作崗位都會消失。
但事實上,舊的工作消失后,新的工作就會誕生。這正彰顯了人類的進(jìn)步,問題在于我們的社會適應(yīng)變化的速度。
在兩代人、最多三代人的時間內(nèi),人類就可以適應(yīng)幾乎任何程度的就業(yè)市場變化。
也許會有人不愿意、不喜歡改變自己的工作,但工作的性質(zhì)是會變化的。
對一個狩獵采集的原始部落里的人來說,在電腦前敲敲字也不可能是真正的工作。
「工作僅僅是人類試圖用一些愚蠢的地位游戲來娛樂自己?!笰ltman 說道。
真正的挑戰(zhàn)是應(yīng)對就業(yè)市場革新的過渡。
社會需要采取行動來確保人們在這個過渡中不會受到傷害,僅僅提供普遍基本收入是不夠的,人們需要擁有主動權(quán)和影響力,參與對未來的建設(shè)。
這也是 OpenAI 為什么如此堅決地推廣 ChatGPT 的原因。
雖然不是每個人都能夠使用人工智能技術(shù),但隨著越來越多人的參與,人們將有機(jī)會思考并劃定未來發(fā)展的方向。
這是我們最應(yīng)重視的事。
參考資料:
https://www.youtube.com/watch?v=byYlC2cagLw
本文來自微信公眾號:新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。