雖然 ChatGPT 寫的論文錯誤太多,但掠奪性期刊應(yīng)該會接收。(錯誤嘗試?。。?/p>
ChatGPT 以其強(qiáng)大的文本創(chuàng)作能力,直接問鼎地表最強(qiáng)問答模型。
但強(qiáng)大的 AI 也會帶來一些負(fù)面影響,比如在問答社區(qū)一本正經(jīng)地寫出錯誤答案,幫助學(xué)生寫論文等。
最近 arXiv 上的一篇論文引發(fā)了業(yè)界的關(guān)注,來自西班牙圣地亞哥-德孔波斯特拉大學(xué)的研究人員在文中以「人工智能在藥物發(fā)現(xiàn)中的挑戰(zhàn)、機(jī)遇和策略」,這篇論文的特別之處在于作者使用 ChatGPT 輔助論文寫作。
作者團(tuán)隊在摘要中的最后一段「來自人類作者的說明」(Note from human-authors)中表示,創(chuàng)建這篇論文是為了測試 ChatGPT (一個基于 GPT-3.5 語言模型的聊天機(jī)器人) 的寫作能力是否能幫助人類作者撰寫評論文章。
作者設(shè)計了一段指令作為文本生成的初始提示,然后對自動生成的內(nèi)容進(jìn)行評估。再進(jìn)行徹底的審查之后,人類作者實(shí)際上重寫了手稿,努力在原始 proposal 和科學(xué)標(biāo)準(zhǔn)之間保持平衡,文章的最后也討論了使用人工智能實(shí)現(xiàn)這一目標(biāo)的優(yōu)勢與局限性。
但是還有一個問題,作者列表里怎么沒有 ChatGPT?(手動狗頭)
論文寫作方法
本文是在 ChatGPT 的輔助下生成的,ChatGPT 是 2022 年 11 月 30 日發(fā)布的一個自然語言處理系統(tǒng),由 OpenAI 用大量文本語料庫進(jìn)行訓(xùn)練,能夠根據(jù)提供給它的輸入生成類似人類寫作的文本。
就本文而言,人類作者提供的輸入包括論文的主題(人工智能在藥物發(fā)現(xiàn)中的應(yīng)用)、需要考慮的章節(jié)數(shù)量,以及每個章節(jié)的具體提示和說明。
ChatGPT 生成的文本需要經(jīng)過人工編輯后才能作為最終的定稿,以糾正和豐富內(nèi)容,避免重復(fù)和不一致等問題;并且人類也需要對人工智能建議的所有參考文獻(xiàn)進(jìn)行了修改。
這項(xiàng)工作的最終版本是人類作者在人工智能的協(xié)助下進(jìn)行反復(fù)修改的結(jié)果,直接從 ChatGPT 獲得的初步文本與當(dāng)前版本手稿之間的總相似度為:完全相同的 4.3%,微小的變化 13.3%,相關(guān)的意義 16.3%。直接從 ChatGPT 獲得的初步文本中,正確的參考文獻(xiàn)比例僅為 6%。
由 ChatGPT 生成的原始版本,以及用于創(chuàng)建該版本的輸入信息都涵蓋進(jìn)來作為 Supporting Information
論文摘要中的插圖由 DALL-E 生成。
論文內(nèi)容
論文總共包括 10 個 section 和 56 個參考文獻(xiàn),其中 section1-9 都只包含 1-2 個段落,主要描述論文主題「「人工智能在藥物發(fā)現(xiàn)中的挑戰(zhàn)、機(jī)遇和策略」」相關(guān)的內(nèi)容;第十個 section 主要討論「人類作者對基于 ChatGPT 和 AI 的科學(xué)寫作工具的專家意見」;文章中只有摘要部分包含一張插圖。
摘要
人工智能有可能徹底改變藥物發(fā)現(xiàn)過程,提供更好的效率、準(zhǔn)確性和速度。然而,AI 的成功應(yīng)用取決于高質(zhì)量數(shù)據(jù)的可用性、對道德問題的處理以及對基于人工智能方法的局限性的認(rèn)識。
這篇文章回顧了人工智能在這個領(lǐng)域的好處、挑戰(zhàn)和缺點(diǎn),并提出了克服目前障礙的可能戰(zhàn)略和方法。
文章中還討論了數(shù)據(jù)增強(qiáng)的使用、可解釋的人工智能、人工智能與傳統(tǒng)實(shí)驗(yàn)方法的整合,以及人工智能在醫(yī)藥研究中的潛在優(yōu)勢。
總的來說,這篇評論強(qiáng)調(diào)了人工智能在藥物發(fā)現(xiàn)中的潛力,并對實(shí)現(xiàn)其在該領(lǐng)域的潛力所面臨的挑戰(zhàn)和機(jī)遇進(jìn)行了深入探討。
人類作者對基于 ChatGPT 和 AI 的科學(xué)寫作工具的專家意見
ChatGPT 是一個基于 GPT-3.5 語言模型的聊天機(jī)器人,它的設(shè)計目標(biāo)并非是撰寫科學(xué)論文的助手,但它與人類進(jìn)行連貫的對話并就廣泛的主題提供新信息的能力,以及它糾正甚至生成計算代碼的能力,都讓科學(xué)界感到驚訝。
因此,我們決定測試它的潛力,為編寫關(guān)于人工智能算法在藥物發(fā)現(xiàn)中的作用的簡短評論做出貢獻(xiàn)。
作為撰寫科學(xué)論文的助手,ChatGPT 有幾個優(yōu)點(diǎn),包括快速生成和優(yōu)化文本的能力,以及幫助用戶完成幾個任務(wù),包括組織信息,甚至在某些情況下連接思想。
然而,這個工具絕不是生成新內(nèi)容的理想工具。
輸入 instructions 后,還需要人類對人工智能生成的文本進(jìn)行修改,而且是大篇幅的編輯和修正,包括替換幾乎所有的參考文獻(xiàn),因?yàn)?ChatGPT 提供的參考文獻(xiàn)明顯不正確。
這也是 ChatGPT 目前存在的一個大問題,它與其他計算工具(如搜索引擎)相比有一個關(guān)鍵的區(qū)別,后者主要是為所需的信息提供可靠的參考。
而采用基于人工智能的工具進(jìn)行寫作輔助還存在另一個重要的問題:它是在 2021 年訓(xùn)練的,所以它并不包括最新信息。
這次寫作實(shí)驗(yàn)提供的結(jié)果就是:我們可以說 ChatGPT 不是一個有用的工具,在沒有強(qiáng)大的人類干預(yù)的情況下無法編寫可靠的科學(xué)文本。
ChatGPT 缺乏準(zhǔn)確和充分傳達(dá)復(fù)雜科學(xué)概念和信息所需的知識和專長。
此外,ChatGPT 使用的語言和風(fēng)格可能不適合學(xué)術(shù)寫作,為了生成高質(zhì)量的科學(xué)文本,人類的輸入和審查是必不可少的。
這種人工智能還不能用于生產(chǎn)科學(xué)文章的主要原因之一是它缺乏評估處理信息真實(shí)性和可靠性的能力,因此,由 ChatGPT 生成的科學(xué)文本肯定包含錯誤或誤導(dǎo)性信息。
同樣需要注意的是,審稿人可能會發(fā)現(xiàn)區(qū)分由人類或這個人工智能寫的文章并非易事。
這使得審查過程必須徹底,以防止虛假或誤導(dǎo)性信息的發(fā)表。
一個真正的風(fēng)險是,掠奪性期刊(predatory journals)可能利用科學(xué)文章的快速生產(chǎn)來產(chǎn)生大量的低質(zhì)量內(nèi)容,這些期刊往往受利益驅(qū)使,而不是致力于科學(xué)進(jìn)步,它們可能利用人工智能快速生產(chǎn)文章,讓不合格的研究充斥市場,破壞科學(xué)界的公信力。
最大的危險之一是科學(xué)文章中虛假信息的潛在擴(kuò)散,這可能導(dǎo)致科學(xué)事業(yè)本身的貶值,失去對科學(xué)研究的準(zhǔn)確性和完整性的信任,會對科學(xué)的進(jìn)步產(chǎn)生不利影響。
有幾種可能的解決方案來減輕與使用人工智能制作科學(xué)文章有關(guān)的風(fēng)險。
一個解決方案是開發(fā)專門用于生產(chǎn)科學(xué)文章的人工智能算法。這些算法可以在高質(zhì)量、經(jīng)同行評議的研究的大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,這將有助于確保其生成的信息的真實(shí)性。
此外,這些算法可以被編程為標(biāo)記潛在的問題信息,如引用不可靠的來源,這將提醒研究人員需要進(jìn)一步審查和核實(shí)。
另一種方法是開發(fā)能夠更好地評估其處理的信息的真實(shí)性和可靠性的人工智能系統(tǒng)。這可能涉及在高質(zhì)量科學(xué)文章的大型數(shù)據(jù)集上訓(xùn)練人工智能,以及使用交叉驗(yàn)證和同行評審等技術(shù),以確保人工智能產(chǎn)生準(zhǔn)確和值得信賴的結(jié)果。
另一個可能的解決方案是為人工智能在科學(xué)研究中的應(yīng)用制定更嚴(yán)格的準(zhǔn)則和法規(guī),比如包括要求研究人員披露他們在制作文章時使用了人工智能,并實(shí)施審查程序以確保人工智能生成的內(nèi)容符合某些質(zhì)量和準(zhǔn)確性標(biāo)準(zhǔn)。
此外,還可以包括要求研究人員在發(fā)表前徹底審查和核實(shí)人工智能生成的任何信息的準(zhǔn)確性,以及對那些未能這樣做的人的懲罰,教育公眾了解人工智能的局限性和依靠人工智能進(jìn)行科學(xué)研究的潛在危險也可能是有用的,可以幫助防止錯誤信息的傳播,確保公眾能夠更好地區(qū)分可靠和不可靠的科學(xué)信息來源。
資助機(jī)構(gòu)和學(xué)術(shù)機(jī)構(gòu)可以通過提供培訓(xùn)和資源,幫助研究人員了解該技術(shù)的局限性,在促進(jìn)科學(xué)研究中負(fù)責(zé)任地使用人工智能方面發(fā)揮作用。
總的來說,解決與在科學(xué)文章制作中使用人工智能相關(guān)的風(fēng)險,將需要技術(shù)解決方案、監(jiān)管框架和公共教育的結(jié)合。
通過實(shí)施這些措施,我們可以確保人工智能在科學(xué)界的使用是負(fù)責(zé)任和有效的。研究人員和政策制定者必須仔細(xì)考慮在科學(xué)研究中使用人工智能的潛在危險,并采取措施來減少這些風(fēng)險。
在人工智能能夠被信任以產(chǎn)生可靠和準(zhǔn)確的信息之前,它在科學(xué)界的使用應(yīng)該是謹(jǐn)慎的,必須仔細(xì)評估人工智能工具提供的信息,并使用可靠的來源進(jìn)行驗(yàn)證。
參考資料:
https://arxiv.org/abs/2212.08104
本文來自微信公眾號:新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。