IT之家 7 月 25 日消息,麻省理工學院計算機科學與人工智能實驗室的研究人員開發(fā)了一種名為“MAIA”的多模式自動化可解釋性代理系統(tǒng),該系統(tǒng)可以使用視覺語言模型來自動執(zhí)行各種神經(jīng)網(wǎng)絡(luò)可解釋性任務(wù)。
麻省理工學院(MIT)計算機科學與人工智能實驗室(CSAIL)最新研發(fā)了名為 MAIA 系統(tǒng),可以使用視覺語言模型來自動執(zhí)行各種神經(jīng)網(wǎng)絡(luò)可解釋性任務(wù)。
MAIA 的全稱是 Multimodal Automated Interpretability Agent,直譯過來為“多模態(tài)自動可解釋性代理”,主要利用視覺語言模型,自動執(zhí)行各種神經(jīng)網(wǎng)絡(luò)可解釋性任務(wù),并配備了在其他人工智能系統(tǒng)上進行實驗的工具。
研究論文的共同作者,來自 MIT CSAIL 的博士后 Tamar Rott Shaham 表示:
我們的目標是創(chuàng)建一個能夠自主進行可解釋性實驗的人工智能研究人員?,F(xiàn)有的自動可解釋性方法只是在一次性過程中對數(shù)據(jù)進行標注或可視化。
另一方面,MAIA 可以生成假設(shè),設(shè)計實驗對其進行測試,并通過迭代分析完善自己的理解。
通過結(jié)合預先訓練好的視覺語言模型與可解釋性工具庫,我們的多模態(tài)方法可以在特定模型上組成和運行有針對性地實驗,來響應(yīng)用戶的詢問,不斷完善其方法,直至能夠提供全面的答案。
該自動代理被證明能夠完成三項關(guān)鍵任務(wù):
可以為視覺模型內(nèi)部的各個組件貼標簽,并描述激活這些組件的視覺概念
可以通過去除無關(guān)特征來清理圖像分類器,使其對新情況更加穩(wěn)健
還可以尋找人工智能系統(tǒng)中隱藏的偏差,幫助發(fā)現(xiàn)其輸出中潛在的公平性問題。
MAIA 可以通過生成假設(shè)、設(shè)計實驗來測試假設(shè),并通過迭代分析改進其理解,從而解釋人工智能模型的內(nèi)部機制,幫助我們了解人工智能模型如何運作,并探究其安全性和偏差。
IT之家附上參考地址
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。