設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

ChatGPT 爆火之下,生成式人工智能同樣存在“遠(yuǎn)憂近慮”

2023/2/11 13:01:58 來源:新浪科技 作者:樵風(fēng) 責(zé)編:問舟

十多年前三位人工智能研究人員取得的一項突破,永久性地改變了人工智能領(lǐng)域。

他們創(chuàng)造了一個名為“AlexNet”的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng),并采用 120 萬張網(wǎng)絡(luò)圖片來訓(xùn)練這個系統(tǒng)。最終,該系統(tǒng)成功地識別了諸如貨柜船、美洲豹之類的各種物體,準(zhǔn)確度遠(yuǎn)超以往的圖像識別系統(tǒng)。

三位開發(fā)人員分別是亞歷克斯?克里日夫斯基(Alex Krizhevsky)、伊利亞?薩茨基弗(Ilya Sutskever)和杰弗里?辛頓(Geoffrey Hinton)。他們憑借這項發(fā)明在 2012 年度的 ImageNet 圖像辨識競賽中獲勝。AlexNet 的研制成功,使得科技界開始認(rèn)識到機(jī)器學(xué)習(xí)的潛力,并就此帶來了一場人工智能革命。

很大程度上,這場人工智能革命是一個靜悄悄的常人并不注意的革命。對于基于機(jī)器學(xué)習(xí)的人工智能在未來可能接管所有人類工作的前景,大部分人在不久前還對此一無所知。機(jī)器學(xué)習(xí)是一項涉及計算機(jī)從大量數(shù)據(jù)中學(xué)習(xí)的底層技術(shù),已被廣泛應(yīng)用于許多過去只能由人類完成的工作中,比如信用卡欺詐識別和在線內(nèi)容關(guān)聯(lián)廣告等。

但近期,人工智能領(lǐng)域又取得了一項波及到整個人類社會的突破,使得這場革命不再如過去那般靜悄悄 —— 人們終于意識到,自己的“飯碗”正受到人工智能的威脅。

ChatGPT 引爆新一輪人工智能革命

這一突破的代表事例之一就是 ChatGPT,一個在去年 11 月底發(fā)布的問答文本生成系統(tǒng)。這樣的系統(tǒng)過去一般只在科幻小說中見到,但現(xiàn)在,它已走進(jìn)了公眾視野,成為光芒閃耀的存在。

ChatGPT 由美國人工智能研究機(jī)構(gòu) OpenAI 所創(chuàng)建,是大熱的所謂生成式人工智能系統(tǒng)中最新同時也最引人注目的一個。這種生成式人工智能可以按照人類發(fā)出的指令來生成相應(yīng)的內(nèi)容。AlexNet 的創(chuàng)建者之一伊利亞?薩茨基弗正是 OpenAI 的聯(lián)合創(chuàng)始人。

據(jù)悉,如果在 ChatGPT 中輸入一個問題,它將生成一段簡明扼要的文字,這段文字包含了問題答案和相關(guān)的背景知識。例如,當(dāng)問它是誰贏得了 2020 年的美國總統(tǒng)選舉,它會告訴你是喬?拜登在選舉中獲勝,此外,它還會額外告訴你拜登是何時開始就職的。

ChatGPT 使用簡單,問題輸入后瞬時就生成問題答案,看起來就像是一個正常人類在和你進(jìn)行交流。正是因為這個特性,人工智能現(xiàn)在很有希望走進(jìn)人們的日常生活。截至目前,微軟已向 OpenAI 投資了數(shù)十億美元,這也足以說明該技術(shù)的看好度。ChatGPT 很有可能在這場人工智能革命的下一階段扮演中心角色。

不過,ChatGPT 只是近期一系列引人注目的人工智能成果中的一項。OpenAI 的另一個人工智能系統(tǒng),即自動寫作系統(tǒng) GPT-3,在 2020 年首次演示時就已經(jīng)讓科技界為之震驚。此后,其他公司也很快推出了各自的大型語言模型系統(tǒng)。然后,人工智能技術(shù)在去年進(jìn)一步擴(kuò)展到圖像生成領(lǐng)域,代表產(chǎn)品包括 OpenAI 的 Dall-E2、Stability AI 的開源型 Stable Diffusion,以及 Midjourney 等系統(tǒng)。

隨著這些技術(shù)成果的出現(xiàn),人們開始蜂擁為這些技術(shù)尋找各種新的應(yīng)用場景。預(yù)料新應(yīng)用將會大量出現(xiàn),可能足以比擬史前寒武紀(jì)時期的生命形態(tài)大爆發(fā)。

如果計算機(jī)能學(xué)會寫作和繪畫,那還有什么是它們做不到的呢?最近,人工智能已開始實驗性地應(yīng)用于視頻生成(Google)、數(shù)學(xué)問題回答(Google)、音樂創(chuàng)作(Stability AI)、代碼生成等領(lǐng)域。制藥公司也計劃利用人工智能技術(shù)來針對性地輔助設(shè)計新藥物。已有生物技術(shù)公司利用人工智能來設(shè)計新抗體,并大大縮短了臨床前測試所需的時間。

人工智能將徹底改變?nèi)祟惻c計算機(jī)互動的方式,它將以一種前所未有的方式來理解人類意圖,并采取相應(yīng)的行動。人工智能將成為一項基礎(chǔ)性的技術(shù),觸及人類社會的所有方面。

隨著人工智能日益廣泛的應(yīng)用,人們需要考慮該技術(shù)可能給人類社會帶來的負(fù)面影響。例如,ChatGPT 可能會被青少年利用來代替他們完成家庭作業(yè)。更嚴(yán)重的是,人工智能可能被故意用來產(chǎn)生大量虛假信息。此外,它還可以將許多人類工作自動化,這可能會造成嚴(yán)重的失業(yè)問題。

人工智能是否可靠?

認(rèn)同生成式人工智能的人士認(rèn)為,這些系統(tǒng)可以提高人類的生產(chǎn)力和創(chuàng)造力。對于任何需要創(chuàng)意性的工作而言,生成式人工智能系統(tǒng)有助于人們破除思想束縛,并向工作人員建議新想法,協(xié)助檢查工作,乃至幫助生產(chǎn)大量內(nèi)容。然而,盡管“生成式”人工智能易于使用,并有可能顛覆大部分技術(shù)領(lǐng)域,但它對公司和個人都提出了深刻的挑戰(zhàn)。

人工智能帶給人類的最大挑戰(zhàn)在于可靠性。人工智能系統(tǒng)能夠生成看起來很可信的結(jié)果,但事實上未必是那么回事。人工智能是根據(jù)海量數(shù)據(jù)按照概率原理來做出最佳猜測并形成問題答案。但是,對它們所生成的結(jié)果,人工智能并不具備人類思維意義上的那種真正理解。

人工智能無法記住與人類的對話,他們并不真正理解人類,對現(xiàn)實世界中的文字符號沒有任何概念。人工智能只是根據(jù)人類發(fā)出的指令,給出看起來很有說服力的回應(yīng)。它們是既聰明又無腦的人類模仿者,它們的結(jié)果輸出只是一種數(shù)字幻覺。

已經(jīng)有跡象表明,該技術(shù)可能產(chǎn)生看起來可信但并不值得信賴的結(jié)果。例如,去年底,F(xiàn)acebook 母公司 Meta 展示了一個名為 Galactica 的生成式系統(tǒng),該系統(tǒng)使用學(xué)術(shù)論文作為數(shù)據(jù)集來進(jìn)行訓(xùn)練。很快,人們就發(fā)現(xiàn),該系統(tǒng)可按要求生成看起來可信但實際上完全虛假的研究結(jié)果。于是,Meta 不得不在幾天后就撤回了這一系統(tǒng)。

ChatGPT 的創(chuàng)建者也承認(rèn),該系統(tǒng)有時會給出很荒謬的答案,這是因為在訓(xùn)練人工智能時,無法保證數(shù)據(jù)集的真理性 / 正確性。OpenAI 稱,所謂的監(jiān)督式學(xué)習(xí)(即在人類監(jiān)督下接受訓(xùn)練,而不是讓它自學(xué)訓(xùn)練)對 ChatGPT 并不奏效,因為該系統(tǒng)往往比它的人類老師更善于找到 “理想的答案”。

一個可能的解決方案是在結(jié)果輸出之前對結(jié)果進(jìn)行合理性檢查。Google 在 2021 年發(fā)布的實驗性 LaMDA 系統(tǒng),對每個人類指令都給出了大約 20 個不同回應(yīng),然后 Google 對每一個回應(yīng)的安全性和可靠性(groundedness)都進(jìn)行評估。然而,有專家認(rèn)為,任何依靠人類來驗證人工智能輸出結(jié)果的系統(tǒng)都可能會帶來更多問題。比如,這可能教會人工智能去產(chǎn)生有欺騙性但看起來更可信的內(nèi)容,從而再次愚弄人類。真相有時難以捉摸,而人類并不十分擅長探究真相,因而,靠人類來評估人工智能的輸出結(jié)果也并不一定靠譜。

也有專家認(rèn)為,對諸如輸出結(jié)果是否合理之類的哲學(xué)式問題其實無需多慮,只需要專注于人工智能技術(shù)的實用價值就行。比如,互聯(lián)網(wǎng)搜索引擎的輸出有時也同樣包含錯誤信息和有用結(jié)果,但人們自己會對結(jié)果進(jìn)行鑒別,并從中找出對他們有用的東西。人們需要學(xué)會鑒別性的使用這些人工智能工具,以從中受益。當(dāng)然,孩子們不能利用這些系統(tǒng)來在學(xué)校舞弊。

但是,實踐表明,讓人們?nèi)プ孕需b別“生成式”人工智能的輸出結(jié)果,可能并不是一個好主意,原因是人們往往過度相信人工智能的輸出結(jié)果 —— 他們會不自覺地將人工智能當(dāng)作真正的人來看待,而忘記了這些系統(tǒng)其實并不真正理解人類的意思。

由此看來,人工智能的可靠性可能的確是一個問題。這項技術(shù)有可能會被不良人士蓄意利用,成為虛假信息生成工廠,虛假信息可能因此充斥社交媒體平臺。人工智能還可能被用于模仿特定人士的寫作風(fēng)格或說話聲音。總之,虛假內(nèi)容的制作將變得前所未有的容易、廉價且無限制。

Stability AI 的總裁?,?shù)?莫斯塔克(Emad Mostaque)對此表示,可靠性問題是人工智能與生俱來的內(nèi)在問題。人們既可以以一種合乎道德法律的方式去使用這項技術(shù),也可以不道德不合法地使用它。他聲稱,居心不良的人士必然會利用這些先進(jìn)的人工智能工具,對此唯一的防范措施就是盡可能廣泛地傳播該技術(shù),以及對所有人開放這項技術(shù)。

但是,在專業(yè)人士眼里,人工智能技術(shù)的廣泛傳播,究竟是否可以有效防范該技術(shù)的負(fù)面效應(yīng),仍有很大爭議。許多專家主張,應(yīng)該限制對人工智能基礎(chǔ)技術(shù)的訪問。來自微軟的人士就表示,他們公司會與客戶緊密溝通,以了解他們對該技術(shù)的使用情況,確保人工智能得到負(fù)責(zé)任的使用。

此外,微軟也盡力防止利用它的人工智能產(chǎn)品做不良事情的行為。該公司會為客戶提供必要的工具,以掃描輸出結(jié)果中的攻擊性內(nèi)容,以及客戶不想見到的特定內(nèi)容。這家公司深刻認(rèn)識到,人工智能也會出現(xiàn)行為異常:就在 2016 年,微軟在推出智能聊天機(jī)器人 Tay 僅僅一天后,就不得不匆忙撤回這款產(chǎn)品,原因是這個機(jī)器人向用戶輸出種族主義等偏激言論。

在某種程度上,技術(shù)本身就有可能抑制住人工智能的濫用。例如,Google 已經(jīng)開發(fā)出一個語言系統(tǒng),能夠以 99% 的準(zhǔn)確率檢測一段語音是否是用人工智能合成。Google 所有在研的人工智能模型都禁止生成真實人物的圖像,這對預(yù)防深度偽造(deep fake)將起到一定作用。

人類的工作是否會被大量取代?

隨著生成式人工智能的橫空出世,人們再次開始激辯人工智能對人類工作的影響。智能機(jī)器是否會大量取代人類工作?又或者,通過接管人類工作中的程序性部分,人工智能反而提高了人類的生產(chǎn)力,并進(jìn)一步提高成就感?

涉及大量設(shè)計 / 寫作元素的職業(yè)和工作崗位將面臨著人工智能的直接沖擊。去年夏末,Stability AI 推出了人工智能文本轉(zhuǎn)圖像模型“Stable Diffusion”。這個模型可以根據(jù)人類提供的文字描述瞬時生成相匹配的圖像。這款人工智能工具給整個商業(yè)藝術(shù)界和設(shè)計界都帶來了一陣恐慌。

一些科技公司已經(jīng)在嘗試將“生成式”人工智能應(yīng)用于廣告業(yè)。這方面的代表公司是 Scale AI,它正在使用廣告圖片來訓(xùn)練一個人工智能模型。這個模型可能用于為小型零售商和小品牌制作專業(yè)的產(chǎn)品廣告圖片,從而為商家節(jié)省廣告制作費(fèi)用。

總之,人工智能有可能影響到那些內(nèi)容創(chuàng)作人士的生計。這項技術(shù)徹底改變了整個媒體行業(yè)。全球的主要內(nèi)容供應(yīng)商都認(rèn)為,他們需要一個元宇宙戰(zhàn)略,同時也需要一個“生成式”媒體戰(zhàn)略。

部分處于被人工智能取代邊緣的創(chuàng)作人士認(rèn)為,問題并不僅僅止于他們的工作生計,還有更深層次的東西。一位音樂家在看到 ChatGPT 創(chuàng)作的很像他的風(fēng)格的歌曲時,他是如此的震驚,以至于他在網(wǎng)上發(fā)出了如下感嘆:音樂家是在痛苦中創(chuàng)作音樂,這種創(chuàng)作建立在復(fù)雜的內(nèi)心苦痛的基礎(chǔ)之上,但對人工智能而言,它們沒有人類的感覺,感受不到人類的痛苦。

技術(shù)樂觀主義者的看法則有所不同。他們認(rèn)為,人工智能并不會取代人類的創(chuàng)造力,反而可以增強(qiáng)人類的創(chuàng)造力。比如,在過去,設(shè)計師僅能一幅幅地去創(chuàng)作單一圖片,但在有了人工智能圖像生成器后,他就可以更多聚焦于整個視頻或整個作品集的創(chuàng)作了。

不過,現(xiàn)有的版權(quán)制度對創(chuàng)作人士并不是很有利。采用人工智能技術(shù)的公司聲稱,美國允許“合理使用”(fair use)受版權(quán)保護(hù)的材料,因此他們可以免費(fèi)利用所有可用的數(shù)據(jù)來訓(xùn)練他們的系統(tǒng)。但許多藝術(shù)家及相關(guān)團(tuán)體對此非常不滿,他們認(rèn)為,人工智能公司使用他們的藝術(shù)作品來訓(xùn)練人工智能,是對這一版權(quán)特許權(quán)利的濫用。就在上周,蓋蒂圖片社(Getty Images)和三位藝術(shù)家對 Stability AI 和其他人工智能公司采取了法律行動。這是創(chuàng)作界首次針對人工智能訓(xùn)練數(shù)據(jù)問題采取行動。

一名代理人工智能公司應(yīng)訴的律師說,人工智能業(yè)界都已清楚,法律訴訟不可避免,也為此做好了準(zhǔn)備。這些訴訟事關(guān)數(shù)據(jù)在人工智能中的地位問題,將確立相關(guān)的基本規(guī)則 —— 這對科技行業(yè)的影響并不亞于當(dāng)年智能手機(jī)剛興起時的專利大戰(zhàn)。

從根本上,法院和立法者將扮演為人工智能時代的版權(quán)制度確立基本框架的角色。如果他們認(rèn)為人工智能技術(shù)已經(jīng)顛覆了現(xiàn)有版權(quán)制度的基礎(chǔ),那么版權(quán)制度就將面臨變革。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人工智能ChatGPT

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知