IT之家 7 月 31 日消息,來自明尼蘇達大學雙城校區(qū)的研究團隊最新研制出計算隨機存取存儲器(CRAM),可以將 AI 芯片的能耗降至千分之一。
國際能源機構(gòu) (IEA) 預(yù)測,AI 的能源消耗將翻一番,2022 年耗電量為 460 太瓦時(TWh),而在 2026 年耗電量預(yù)估將達到 1000 太瓦時。
團隊表示,傳統(tǒng) AI 芯片需要在邏輯(處理)和內(nèi)存(存儲)之間不斷傳輸數(shù)據(jù),因此導(dǎo)致耗電量巨大。
而 CRAM 新型存儲器通過將數(shù)據(jù)保存在存儲器內(nèi)進行處理來解決這一問題,數(shù)據(jù)無需離開計算機存儲信息的網(wǎng)格,可以完全在內(nèi)存陣列中進行處理。
團隊表示和傳統(tǒng)方法相比,基于 CRAM 的機器學習推理加速器能耗可降低至千分之一,甚至在某些場景應(yīng)用下可以達到 1/1700 或者 1/2500。
該團隊成立于 2003 年,由物理學、材料科學、計算機科學和工程學專家組成,在過去 20 多年來一直開發(fā)該技術(shù)。
該研究以磁性隧道結(jié)(Magnetic Tunnel Junctions,MTJs)相關(guān)專利為基礎(chǔ),而 MTJ 是硬盤、傳感器和其他微電子系統(tǒng)(包括磁隨機存取存儲器 MRAM)中使用的納米結(jié)構(gòu)器件。
CRAM 架構(gòu)克服了傳統(tǒng)馮-諾依曼架構(gòu)(計算和內(nèi)存是兩個獨立的實體)的瓶頸,能夠比傳統(tǒng)系統(tǒng)更有效地滿足各種人工智能算法的性能需求。
明尼蘇達大學團隊目前正與半導(dǎo)體行業(yè)的領(lǐng)導(dǎo)者合作,擴大演示規(guī)模,并生產(chǎn)必要的硬件,以更大規(guī)模地降低人工智能能耗。
IT之家附上參考地址
University of Minnesota device slashes AI energy consumption
Experimental demonstration of magnetic tunnel junction-based computational random-access memory
New memory tech unveiled that reduces AI processing energy requirements by 1,000 times or more
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。