“有一些事煩擾著你,像是阻止人類歷史翻過新的篇章,你知道那一頁后面空空蕩蕩,正如這一夜,地球上最后的夜晚。你決定完成那一件事,給整個文明畫上一個完美的句號?!?/p>
看到這段話的時候,你會想到什么?
是曲折又飄渺的意境,還是不知所云的指代?
這段文字出自科幻作家陳楸帆的短篇小說《出神狀態(tài)》,在 2019 年被專門為書籍打分的 “AI 評論家”谷臻小簡評為年度小說,此前,谷臻小簡最喜歡的書是莫言的《等待摩西》。
▲《出神狀態(tài)》原載于《小說界》2018 年第 4 期,該期主題為 “地球上最后的夜晚”
令人驚嘆的是《出神狀態(tài)》文章本身也是一部由 AI 參與創(chuàng)作的作品。
隔著評選與被評選的界限,“AI 評論家”和 “AI 小說家”遙遙相望,在 771 篇短篇小說中認出了彼此。
這樣的 “相認”是否代表著 AI 已經發(fā)展出自己的 “文學審美”,窺得一絲人類創(chuàng)作的 “天機”?
要回答這個問題,我們要從寫作型 AI 的發(fā)展歷史及其核心技術說起。
一、回顧三十年寫作之路:模仿容易創(chuàng)作不易
簡單的 AI 寫作從三十年前就開始了,最早的一個 AI 寫作系統(tǒng)誕生于 1990 年的加拿大,通過從數據庫中產生文字摘要的 “資料轉文本”系統(tǒng),生成英法雙語的氣象報告,其后也應用在經濟、商業(yè)報告和醫(yī)療報告上。
三十年過去了,科技世界早已 “換了人間”,AI 寫作也從機械化的 “提取”和 “填空”,升級到智能化的創(chuàng)作,并開始涉及更加復雜的文本創(chuàng)作。
2016 年,日本兩支科研團隊就曾將 AI 引入小說創(chuàng)作中,并將其作品參加日本 “星新一獎”比賽,騙過了評委的眼睛。
▲日本公立函館未來大學松原仁教授在報告會上演講
其中一支團隊的負責人松原仁教授表示,自己的團隊花費了四年時間來分析日本知名科幻小說家星新一的上千本小說,讓 AI 學習文章中使用的單詞種類、句子長短、斷句等寫作特征。當需要寫小說時,AI 會基于人類設定好的出場人物、內容大綱等自動補充其余的文章內容。
但他也提到,AI 只在小說創(chuàng)作中做出了 20% 的貢獻,并沒有學會怎么寫小說。
開篇中提到的《出神狀態(tài)》同樣是基于相似的思路。
研究人員直接調用 Github 上現(xiàn)成的代碼,通過調整參數來讓模型生成的文字盡可能接近人類寫出的文章。且基于對原作者上百萬字文章的學習,AI 程序 “陳楸帆 2.0”可以通過輸入的關鍵詞和主語,自動生成幾十到一百字之間的段落。
盡管模型學會了原作者的寫作偏好,如更愛用什么句式、更偏好于怎樣的詞語描寫,但這也僅僅是學會了語句統(tǒng)計的規(guī)律,而寫作過程更像是從常用語料庫中隨機找到一些詞,按照寫作偏好拼接在一起形成段落,沒有明確的寫作意圖或者情感,也難以稱得上 “文學”之名。
2018 年末,世界上第一篇完全由 AI 創(chuàng)作,無人類參與的小說誕生了。
模仿美國文豪 Jack Keroua《在路上》的創(chuàng)作過程,美國小說家 Ross Goodwin 帶著一個麥克風、一個 GPS、一個攝像頭和一臺筆記本電腦上了路,并推出了 AI 小說《The Road》。
▲Jack Kerouac 在 1948-1950 年橫穿美國,并創(chuàng)作了《在路上》
在旅途開始之前,Goodwin 向模型輸入了 6000 萬字的文學作品訓練長短期記憶網絡(LSTM),其中三分之一是詩歌,三分之一是科幻小說,余下的三分之一是頹廢主義文學作品。
在旅程中,攝像機畫面以及 GPS 位移等變化會作為種子單詞(seed word)貫連起小說情節(jié)。Goodwin 希望通過這種方式規(guī)避 AI 小說敘事混亂的問題,增加故事的連貫性。
可惜的是,雖然神經網絡可以基于種子單詞關聯(lián)到相關的詞語,組成句子,但他們并不知道自己在寫什么,也不明白這些話實際代表了什么含義,最終又都會駛向 “超現(xiàn)實”寫作的范疇,成為一堆單詞的拼湊組合。
如何讓 AI 知其然,知其所以然?這就是自然語言處理(NLP,Natural Language Processing)的工作了。
二、AI 寫作的 “引擎”:詳解 NLG 全流程
作為 AI 皇冠上的明珠,NLP 涵蓋的范圍也很廣,包括文本分類、機器翻譯、機器理解等,其中最與創(chuàng)作息息相關的就是自然語言生成(NLG,Natural Language Generation)。
自然語言生成的概念也非常易懂,其實就是機器理解的逆過程。
機器理解通過將人類語言轉化為機器語言(二進制或其他編碼方式),讓機器明白人類的意圖,而自然語言生成則是通過將機器語言轉化為人類語言,讓人類明白機器的意圖。
大部分 NLG 模型都遵循一個 “從整體到細節(jié)”的過程,具體可以被拆分為以下六個步驟:
1、內容確定(Content determination):確定文本包含哪些信息,比如今天我們需要寫一篇 AI 寫作有關的文章,所以需要收集相關的資料。
2、文本結構(Text structuring):確定文本的邏輯結構,例如先說 AI 寫作的成就,再展開描述通過哪些技術實現(xiàn) AI 寫作。
3、句子聚合(Sentence aggregation):合并意義相似的句子,讓閱讀過程更輕松。如將 “AI 寫作在 1990 年就出現(xiàn)了”和 “最早,AI 寫作應用于氣象、商業(yè)、醫(yī)療報告等領域”合并為 “1990 年,最早的 AI 寫作應用于氣象、商業(yè)、醫(yī)療報告等領域。”,讓閱讀過程更輕松易懂。
4、詞匯化(Lexicalisation):找到表述準確的詞語。
5、引用表達式生成(Referring expression generation):一些詞語能指代更大的范圍或引申義,例如當提到 NLG,默認其是 NLP 下的一個分支,下文可以基于這一信息展開其他內容。
6、語言實現(xiàn)(Linguistic realisation):將所有單詞和短語組合成表意清晰的句子。
如下圖就展示了 NLG 模型如何從一張新生兒心率圖像生成文本。
首先在內容確定階段確定了文本需要描述新生兒的心率變化,在文本結構部分,找出了新生兒三次心率過緩的時間,按時間順序排列。第三階段包括了句子聚合、詞匯化和引用表達生成,通過詞向量的排列組合找到適合的詞語,最后在實現(xiàn)階段組成通順的句子。
最早的 NLG 模型可以追溯到 1993 年的機器翻譯模型,Peter F. Brown 和 Della Pietra 將統(tǒng)計方法應用于模型中,實現(xiàn)英法語互譯。
其后更多的新方法、新突破也投入了 NLG 模型中:啟發(fā)式模型、雙語并行語料庫、對抗性訓練等,讓 NLG 模型在近三十年的歷史中,乘風破浪,不斷 “進擊”。
三、AI 寫作 “進階”:多創(chuàng)新突破理解障礙
NLG 是怎么運行的,我們已經很清楚了,但至于為什么目前 AI 還是無法成為 “小說家”,說到底,還是理解不夠透。
我們以早期 NLG 算法模型馬爾可夫鏈舉例。
▲馬爾可夫鏈示意圖
它會使用當前單詞來預測句子中的下一個單詞。
比如,當模型僅使用以下句子進行訓練:“AI 能寫出詩歌”和 “AI 寫出小說”,那在文本生成階段,“AI”后面一定會接著 “寫”,而 “寫”則有一半的可能接上 “詩歌”或者 “小說”。
馬爾可夫鏈基于訓練集中詞頻的統(tǒng)計來判斷詞語之間相連的可能性,這也反映了大部分算法模型暗含的問題,由于訓練集的不同,預測結果很可能不同。模型大多數時候并不是 “主動”地創(chuàng)作文本,而只是 “被動”地根據統(tǒng)計結果猜測下一個可能出現(xiàn)的詞是什么。
這樣一來,NLG 模型確實可以創(chuàng)作出看起來非常像小說的小說,但是仔細一讀,卻發(fā)現(xiàn)它 “虛有其表”。
研究人員也采用了許多方法去突破這一瓶頸,其中 RNN(遞歸神經網絡)、LSTM 神經網絡和 Transformer(自注意力機制)是較為常用的方法。
RNN 通過構建輸入輸出的非線性關系,實現(xiàn)更靈活的雙向預測;LSTM 則通過四層神經網絡(RNN 僅有一層)允許網絡選擇性地僅跟蹤相關信息,且觀測到離預測距離更遠的上下文。
▲分別為 RNN 和 LSTM 神經網絡的架構圖
而 Transformer 則是目前許多大型語言模型的基石。
簡單來說,Transformer 可以通過編碼器處理任意長度的輸入文本,在執(zhí)行較少步驟的同時,忽略詞語位置,直接模擬句子中所有詞語之間的關系。
2020 年,美國查普曼大學的學生利用基于 Transformer 的 GPT-3 模型,創(chuàng)作了影片劇本《律師》,走紅社交網絡。
影片開始是一個女人坐在沙發(fā)上看書,一陣敲門聲響起。
她起身開門,發(fā)現(xiàn)一個汗流浹背、狂躁不安的年輕人站在她家門口,他說:“我是耶和華見證人(Jehovah’s Witnesses)。”
但這個女人看起來不為所動,說:“對不起,我不和律師講話?!?/p>
該男子焦躁了起來,試圖用一個故事引起她的注意。
▲影片《律師》截圖
影片制作 Eli Weiss 表示:“我們認為 AI 寫作非常有趣,它將劇情帶向了意想不到的方向,而且從故事寫作的角度來看,AI 寫的每一個轉折都正中觀眾心坎?!?/p>
結語:創(chuàng)作天機,不可泄露
盡管 AI 寫作的應用日趨廣泛,但無論是劇本還是小說,呈現(xiàn)在觀眾面前的作品都是經過人工修改和調整。
人們所驚嘆的創(chuàng)造力,也不來源 AI 本身的思考,而是根據自身訓練數據預測出 “下一個最有可能出現(xiàn)的詞”。
所以如果我們看一看 AI 生成的原文就會發(fā)現(xiàn),它們句法完整、辭藻華麗,卻往往不知所云,缺乏文學創(chuàng)作中最重要的思想性和情感共鳴。
至于 AI 是否已經窺得創(chuàng)作 “天機”,或許目前它最好的用法,還是作為人類創(chuàng)作者的參考工具。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。