IT之家 9 月 10 日消息,2023 年是人工智能的一年,從聊天機(jī)器人 ChatGPT,到 AI 創(chuàng)作的歌曲參加格萊美獎,再到好萊塢的演員和編劇抗議大制片公司過度使用自動化技術(shù),人工智能已無處不在。
IT之家注意到,近日美國南佛羅里達(dá)大學(xué)的一項(xiàng)研究表明,AI 生成的文字內(nèi)容可能已經(jīng)無法與人類寫的區(qū)分開來。研究作者邀請了一些語言學(xué)專家參與了這個項(xiàng)目,他們都是世界頂級語言學(xué)期刊的專家,但即使是這樣的專業(yè)人士,也發(fā)現(xiàn)很難識別出 AI 寫的內(nèi)容??偟膩碚f,他們只能正確區(qū)分出 39% 的情況。
南佛羅里達(dá)大學(xué)世界語言系的學(xué)者馬修?凱斯勒與孟菲斯大學(xué)應(yīng)用語言學(xué)助理教授 J.埃利奧特?卡薩爾合作,讓 72 名語言學(xué)專家審閱一系列研究摘要,并判斷哪些是由人類寫的,哪些是由 AI 生成的。具體來說,每位參與的專家必須檢查四個寫作樣本。結(jié)果沒有一個專家能夠正確識別所有四個樣本,有 13% 的專家全部答錯了。
基于這些結(jié)果,研究作者不得不得出結(jié)論:大多數(shù)現(xiàn)代教授都無法區(qū)分學(xué)生自己寫的內(nèi)容和 AI 生成的內(nèi)容。研究者推測,在不久的將來可能需要開發(fā)軟件來幫助教授識別 AI 寫的內(nèi)容。
語言學(xué)專家們試圖使用一些理由來判斷寫作樣本,例如識別某些語言和風(fēng)格特征。然而,最終這些方法基本上都失敗了 —— 導(dǎo)致整體正確識別率只有 38.9%。
總之,凱斯勒和卡薩爾都得出結(jié)論:像 ChatGPT 這樣的聊天機(jī)器人確實(shí)可以像大多數(shù)人類一樣(甚至在某些情況下更好地)寫出短篇文章。AI 通常不會犯語法錯誤。然而,研究作者指出,在長篇寫作方面,人類仍然占據(jù)優(yōu)勢。
“對于長文本,AI 已經(jīng)被證明會產(chǎn)生幻覺和虛構(gòu)內(nèi)容,使得更容易識別出它是由 AI 生成的?!眲P斯勒總結(jié)說。
凱斯勒希望這項(xiàng)工作能夠促進(jìn)人們的討論,關(guān)注在研究和教育領(lǐng)域使用 AI 時建立明確的道德和指導(dǎo)原則的迫切需要。該研究發(fā)表在《應(yīng)用語言學(xué)研究方法》雜志上。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。