北京時間 8 月 7 日晚間消息,據報道,美國證券交易委員會(SEC)主席加里?詹斯勒(Gary Gensler)多年來一直在研究 AI 的潛在后果。近期,像 ChatGPT 這樣的生產式 AI 工具的激增表明,這項技術有望改變各行各業(yè),甚至是整個社會。
日前,詹斯勒談到了他對 AI 最擔心的一些問題。
AI 可能是金融系統(tǒng)面臨的下一個重大系統(tǒng)性風險。2020 年,詹斯勒與他人合寫了一篇關于深度學習和金融穩(wěn)定的論文。其結論是,鑒于以往網絡和平臺效應對科技巨頭的影響,將來可能只有少數幾家 AI 公司能建立一些基礎的模型,來支持企業(yè)所依賴的 AI 工具。
詹斯勒預計,美國最終很可能會出現 2~3 個基礎性的 AI 模式。這將加深整個經濟體系的相互聯系,使金融崩潰的可能性變得更大。因為當一個模型或數據集成為核心時,它會增加“羊群”行為(即從眾行為),意味著每個人都將依賴相同的信息,做出類似的反應。
詹斯勒說:“這項技術(AI)將成為未來危機和未來金融危機的中心?!?/p>
AI 模型可能會把企業(yè)的利益置于投資者的利益之上。社交媒體推動的表情包股票狂潮,以及 App 上零售交易的興起,突顯了推送和預測算法的力量。但是,使用 AI 來研究投資者行為或推薦交易的公司,在根據這些信息采取行動時,會把用戶利益放在優(yōu)先位置嗎?
SEC 上個月提出了一項規(guī)則,要求各平臺消除其技術中的利益沖突。詹斯勒說:“你不應該把顧問放在投資者之前,你也不應該把經紀人放在投資者之前。因此,我們就如何解決那些可能嵌入到模型中的沖突提出了具體的建議?!?/p>
如果生成式 AI 給出錯誤的財務建議,誰應該負責?詹斯勒稱:“根據法律,投資顧問有受托義務、注意義務和對客戶忠誠的義務。無論是否使用算法,你都有同樣的注意義務?!?/p>
在政策制定者的心目中,到底誰應該為 AI 承擔法律責任,還存在爭議。但詹斯勒認為:“應該要求這些公司創(chuàng)建安全的機制,因為任何使用聊天機器人的人,都不會將責任下放給這項技術。他說:“機器人的各項參數,是由建造它們的人類設定的。”
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。