設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色
比亚迪海量新车发布:首次 7 万级高阶智驾    《哪吒 2》进入全球票房榜前 30

相比人工智能導(dǎo)致人類滅亡,專家稱更擔(dān)心虛假信息和操縱用戶

2023/6/4 10:04:02 來源:網(wǎng)易科技 作者:辰辰 責(zé)編:遠(yuǎn)洋

6 月 4 日消息,隨著人工智能技術(shù)的快速發(fā)展和普及,很多行內(nèi)人士擔(dān)心不加限制的人工智能可能會導(dǎo)致人類滅亡。但專家們表示,人工智能帶來的最大負(fù)面影響不太可能是科幻電影中的核戰(zhàn)場面,反而更有可能是虛假信息、操縱用戶等造成的社會環(huán)境不斷惡化。

圖源 Pexels

以下是翻譯內(nèi)容:

近幾個月來,業(yè)內(nèi)愈發(fā)擔(dān)心人工智能。就在本周,300 多名行業(yè)領(lǐng)袖發(fā)表了一封聯(lián)名公開信,警告人工智能可能導(dǎo)致人類滅絕,對待人工智能應(yīng)該像“疫情和核戰(zhàn)”那樣加以嚴(yán)肅對待。

像“人工智能末日”這種術(shù)語總會讓人聯(lián)想到科幻電影中機(jī)器人統(tǒng)治世界的畫面,但實(shí)際上任由發(fā)展的人工智能會帶來哪些后果?專家們說,現(xiàn)實(shí)可能不像電影情節(jié)那樣跌宕起伏,不會是人工智能啟動核彈,而是社會基礎(chǔ)環(huán)境逐漸惡化。

加州大學(xué)伯克利分校人工智能安全計(jì)劃主任杰西卡?紐曼(Jessica Newman)說:“我不認(rèn)為人們該擔(dān)心人工智能會變壞,或者人工智能會有某種惡意欲望?!薄拔kU(xiǎn)來自一些更簡單的東西,那就是人們可能會給人工智能編程,讓它做有害的事情,或者我們最終會把天生不準(zhǔn)確的人工智能系統(tǒng)整合到越來越多的社會領(lǐng)域,從而造成傷害?!?/p>

這并不是說我們不應(yīng)該擔(dān)心人工智能。即便末日場景不太可能發(fā)生,強(qiáng)大的人工智能也有能力用錯誤信息問題不斷加劇、操縱人類用戶以及給勞動力市場帶來巨大變化等形式破壞社會穩(wěn)定。

雖然人工智能技術(shù)已經(jīng)存在了幾十年時間,但像 ChatGPT 這種語言學(xué)習(xí)模型的普及加劇了人們長期以來的擔(dān)憂。紐曼說,與此同時,科技公司爭先恐后將人工智能應(yīng)用到他們的產(chǎn)品中,相互開展激烈競爭,帶來了一堆麻煩事。

她說:“我非常擔(dān)心我們眼下走的道路?!薄皩τ谡麄€人工智能領(lǐng)域來說,我們正處于一個特別危險(xiǎn)的時期,因?yàn)檫@些系統(tǒng)雖然看起來很特別,但仍然非常不準(zhǔn)確,并且存在固有漏洞?!?/p>

接受采訪的專家們表示,他們最擔(dān)心的有不少方面。

錯誤和虛假信息

許多領(lǐng)域早已經(jīng)啟動了所謂的人工智能變革。機(jī)器學(xué)習(xí)技術(shù)支撐著社交媒體新聞推送算法,長期以來,人們一直指責(zé)這種技術(shù)加劇了固有偏見和錯誤信息等問題。

專家們警告說,隨著人工智能模型的發(fā)展,這些尚未解決的問題只會進(jìn)一步加劇。最糟糕的情況可能影響到人們理解事實(shí)真相和有效信息,從而導(dǎo)致更多基于謊言的事件發(fā)生。專家們表示,錯誤和虛假信息的增加可能引發(fā)進(jìn)一步的社會動蕩。

“可以說,社交媒體的崩潰是我們第一次遇到真正愚蠢的人工智能。因?yàn)橥扑]系統(tǒng)實(shí)際上只是簡單的機(jī)器學(xué)習(xí)模型,”數(shù)據(jù)科學(xué)平臺 Anaconda 首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Peter Wang 說?!拔覀冋娴膹氐资×恕!?/p>

Peter Wang 補(bǔ)充說,這些錯誤可能導(dǎo)致系統(tǒng)陷入永無止境的惡性循環(huán),因?yàn)檎Z言學(xué)習(xí)模型也是在錯誤信息的基礎(chǔ)上進(jìn)行訓(xùn)練,為未來模型創(chuàng)造的又是有缺陷的數(shù)據(jù)集。這可能會導(dǎo)致“模型自相殘殺”效應(yīng),未來模型會因?yàn)檫^去模型的輸出放大偏差,并永遠(yuǎn)受到影響。

專家們稱,不準(zhǔn)確的錯誤信息和容易誤導(dǎo)人們的虛假信息都被人工智能放大了。像 ChatGPT 這種大語言模型很容易出現(xiàn)所謂的“幻覺”現(xiàn)象,反復(fù)捏造杜撰虛假信息。新聞行業(yè)監(jiān)督機(jī)構(gòu) NewsGuard 的一項(xiàng)研究發(fā)現(xiàn),幾十個完全由人工智能撰寫材料的在線“新聞”網(wǎng)站中有許多內(nèi)容都存在不準(zhǔn)確之處。

NewsGuard 聯(lián)合首席執(zhí)行官戈登?克羅維茨 (Gordon Crovitz) 和史蒂文?布里爾 (Steven Brill) 表示,這種系統(tǒng)可能會被壞人利用,故意大規(guī)模傳播錯誤信息。

克羅維茨說:“一些惡意的行為者可以制造虛假陳述,然后利用這個系統(tǒng)的倍增效應(yīng)來大規(guī)模傳播虛假信息?!薄坝腥苏f人工智能的危險(xiǎn)被夸大了,但在新聞信息領(lǐng)域,它正在產(chǎn)生驚人影響?!?/p>

全球非營利性機(jī)構(gòu) Partnership on AI 的麗貝卡?芬利 (Rebecca Finlay) 表示:“就更大規(guī)模的潛在危害而言,錯誤信息是人工智能最有可能對個人造成傷害的方面、風(fēng)險(xiǎn)也最高?!薄皢栴}是我們?nèi)绾蝿?chuàng)造一個生態(tài)系統(tǒng),讓我們能夠理解什么是真實(shí)的?”“我們又該如何驗(yàn)證我們在網(wǎng)上看到的東西?”

惡意操縱用戶

雖然大多數(shù)專家都表示,錯誤信息是最直接和最普遍的擔(dān)憂,但關(guān)于這項(xiàng)技術(shù)可能會在多大程度上對用戶的思想或行為產(chǎn)生負(fù)面影響,還存在不少爭議。

事實(shí)上,這些擔(dān)憂已經(jīng)帶來了不少悲劇。據(jù)報(bào)道,比利時一名男子在得到聊天機(jī)器人的鼓動后自殺身亡。還有聊天機(jī)器人告訴用戶和他的伴侶分手,或者讓有飲食失調(diào)問題的用戶減肥。

紐曼說,從設(shè)計(jì)上講,因?yàn)榱奶鞕C(jī)器人是以對話的形式與用戶交流,可能會產(chǎn)生更多的信任感。

“大語言模型特別有能力說服或操縱人們在潛移默化中改變他們的信念或行為,”她說?!肮陋?dú)和心理健康已經(jīng)是全世界的大問題,我們需要觀察聊天機(jī)器人會對世界產(chǎn)生何種認(rèn)知影響。”

因此,專家們更擔(dān)心的不是人工智能聊天機(jī)器人會獲得感知能力并超越人類用戶,而是它們背后的大語言模型可能會操縱人們給自己造成原本沒有的傷害。紐曼說,那些以廣告盈利模式運(yùn)作的語言模型尤為如此,它們試圖操縱用戶行為,從而盡可能長時間地使用平臺。

紐曼表示:“在很多情況下,給用戶造成傷害也不是因?yàn)樗麄兿胍@樣做,而是系統(tǒng)未能遵循安全協(xié)議造成的后果?!?/p>

紐曼補(bǔ)充說,聊天機(jī)器人的類人特性使用戶特別容易受到操縱。

她說:“如果你和一個使用第一人稱代詞的東西交談,談?wù)撍约旱母惺芎退幥榫?,即使明知道它不是真?shí)的,仍然更有可能引發(fā)一種它像人類的反應(yīng),讓人們更容易想要相信它?!薄罢Z言模型讓人們愿意信任它,把它當(dāng)成朋友,而不是工具?!?/p>

勞動力問題

長期存在的另一個擔(dān)憂是,數(shù)字自動化將取代大量人類工作。一些研究得出結(jié)論,到 2025 年,人工智能將在全球范圍內(nèi)取代 8500 萬個工作崗位,未來將取代超過 3 億個工作崗位。

受人工智能影響的行業(yè)以及崗位非常多,有編劇也有數(shù)據(jù)科學(xué)家?,F(xiàn)如今,人工智能可以像真正的律師那樣通過律師考試,還能比真正的醫(yī)生更好回答健康方面的問題。

專家們發(fā)出警告,人工智能的崛起可能會導(dǎo)致出現(xiàn)大規(guī)模失業(yè),從而造成社會不穩(wěn)定。

Peter Wang 警告說,大規(guī)模裁員在不久將來就會發(fā)生,“許多工作崗位都面臨風(fēng)險(xiǎn)”,而且?guī)缀鯖]有任何計(jì)劃應(yīng)對后果。

他說:“在美國,沒有關(guān)于人們失業(yè)時如何生存的框架?!薄斑@將導(dǎo)致很多混亂和動蕩。對我來說,這是由此產(chǎn)生的最具體、最現(xiàn)實(shí)的意外后果?!?/p>

未來怎么辦

盡管人們越來越擔(dān)心科技行業(yè)和社交媒體帶來的負(fù)面影響,但在美國,監(jiān)管科技行業(yè)和社交媒體平臺的措施卻很少。專家們擔(dān)心人工智能也是如此。

Peter Wang 說:“我們許多人擔(dān)心人工智能發(fā)展的原因之一是,在過去的 40 年時間里,作為一個社會,美國基本上放棄了對科技的監(jiān)管。”

盡管如此,近幾個月來美國國會已經(jīng)有了一番積極動作,舉行聽證會,讓 OpenAI 首席執(zhí)行官薩姆?奧爾特曼 (Sam Altman) 就應(yīng)該實(shí)施的監(jiān)管措施作證。芬利表示,她對這些舉措感到“鼓舞”,但在制定人工智能技術(shù)規(guī)范以及如何發(fā)布方面,還需要做更多工作。

她說:“很難預(yù)測立法和監(jiān)管部門的反應(yīng)能力?!薄拔覀冃枰獙@種水平的技術(shù)進(jìn)行嚴(yán)格審查?!?/p>

盡管人工智能的危害是行業(yè)內(nèi)大多數(shù)人最關(guān)心的問題,但并非所有專家都是“末日論者”。許多人也對這項(xiàng)技術(shù)的潛在應(yīng)用感到興奮。

Peter Wang 說:“實(shí)際上,我認(rèn)為新一代人工智能技術(shù)真的可以為人類釋放出巨大的潛力,讓人類社會以更大規(guī)模繁榮起來,要超出過去 100 年甚至 200 年的水平?!薄皩?shí)際上,我對它的積極影響非常非常樂觀。”

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人工智能AI
  • 日榜
  • 周榜
  • 月榜

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知