曾造出世界最大芯片的美國 AI 芯片明星創(chuàng)企 Cerebras Systems,最新宣布完成 2.5 億美元(約合 16 億人民幣)F 輪融資。
此次融資由 Alphawave Ventures 和阿布扎比增長基金(ADG)領(lǐng)投。截至本輪融資,Cerebras 的融資總額已達(dá) 7.2 億美元(約合 46 億人民幣),公司估值超過 40 億美元(約合 256 億人民幣)。
▲ Cerebras Systems WSE 處理器
2019 年 8 月,Cerebras 的首顆晶圓級(jí)芯片 WSE 一問世便轟動(dòng)全球科技圈,它由一整片晶圓制成,在 46225mm2 面積上集成了 1.2 萬億個(gè)晶體管。其 2021 年推出的二代 WSE-2 更進(jìn)一步,采用 7nm 制程,創(chuàng)下集成 2.6 萬億個(gè)晶體管的新紀(jì)錄。
相比之下,被業(yè)界視作云端 AI 芯片標(biāo)桿的英偉達(dá) A100 GPU,同樣采用 7nm 制程,總共有 540 億個(gè)晶體管。
接下來,Cerebras 計(jì)劃將此次融資用于擴(kuò)大其全球業(yè)務(wù)和工程師團(tuán)隊(duì),以及設(shè)計(jì)下一代基于臺(tái)積電 5nm 節(jié)點(diǎn)的處理器。
本文福利:Cerebras Systems 在 Hot Chips2021 上介紹巨型芯片 WSE-2 的演講 PPT,可在公眾號(hào)聊天欄回復(fù)關(guān)鍵詞【芯東西 191】獲取。
01.創(chuàng)業(yè)伙伴再上路,投資人稱正在重新定義 AI 的可能性
Cerebras Systems 位于美國加利福尼亞州,由 Andrew Feldman、Gary Lauterbach 等人創(chuàng)建于 2015 年。
Andrew Feldman 和 Gary Lauterbach 分別是 Cerebras Systems 的首席執(zhí)行官和首席技術(shù)官,兩人的合作時(shí)間已經(jīng)超過 12 年。
Andrew Feldman 有著斯坦福大學(xué)的 MBA 學(xué)位,曾多次作為公司高管完成了收購和上市。Gary Lauterbach 則是行業(yè)中著名的計(jì)算機(jī)架構(gòu)師,曾擔(dān)任 SPARC Ⅲ 和 UltraSPARC Ⅳ 微處理器的首席架構(gòu)師。
2007 年,Andrew Feldman 和 Gary Lauterbach 就一起創(chuàng)辦了微型服務(wù)器公司 SeaMicro。2012 年,SeaMicro 被 AMD 以 3.34 億美元收購,兩人也一起加入了 AMD。Andrew Feldman 在 AMD 做了兩年半的副總裁。
▲ Cerebras Systems 首席執(zhí)行官 Andrew Feldman(左)和首席技術(shù)官 Gary Lauterbach(右)
Cerebras Systems 創(chuàng)建至今已完成了 6 輪融資,總金額達(dá) 7.2 億美元。早在 2016 年,Cerebras Systems 完成了第一筆 6450 萬美元的融資;次年 1 月,Cerebras Systems 拿下 2500 萬美元的 B 輪融資;6 個(gè)月后,再次籌集 6000 萬美元;2018 年 11 月,完成 8800 萬美元的 D 輪融資。
隨著不斷地融資,Cerebras Systems 也從價(jià)值 2.45 億美元的公司成為了新的 AI 芯片獨(dú)角獸。Twitter、為 Snap 提供資金的 Benchmark,傳奇芯片設(shè)計(jì)師、AMD 前 CTO? Fred Weber、著名非營利實(shí)驗(yàn)室 OpenAI 的 AI 科學(xué)家、AlexNet 的聯(lián)合創(chuàng)建者 Ilya Sutskever 等業(yè)界知名機(jī)構(gòu)或大牛都對(duì)其進(jìn)行了投資。
2019 年,Cerebras Systems 完成了 E 輪融資,公司估值約為 24 億美元。如今,新的 F 輪融資為該公司又籌集了 2.5 億美元的資金,而這相當(dāng)于 Cerebras Systems 大約 6% 的股份,其估值已超過 40 億美元。
據(jù)科技媒體 AnandTech 報(bào)道,這 2.5 億美元的融資將會(huì)支撐 Cerebras 未來 2-3 年的布局,包括在 5nm 節(jié)點(diǎn)上設(shè)計(jì)芯片和新的內(nèi)存擴(kuò)展方案等。目前 Cerebras Systems 在美國桑尼維爾、美國圣地亞哥、加拿大多倫多、日本東京等地?fù)碛屑s 400 名員工,并希望到 2022 年底擴(kuò)大到 600 人,主要增加工程師人數(shù)并專注于產(chǎn)品的全棧開發(fā)。
Alphawave Ventures 的聯(lián)合創(chuàng)始人兼董事長 Rick Gerson 稱:“Cerebras Systems 正在重新定義人工智能的可能性,并在加快制藥和生命科學(xué)等幾個(gè)領(lǐng)域的創(chuàng)新方面有著一流的表現(xiàn)。我們很自豪能與 Andrew 和 Cerebras 的團(tuán)隊(duì)合作,支持他們將高性能 AI 計(jì)算引入全球新市場(chǎng)和地區(qū)。”
02.二代處理器具有 2.6 萬億個(gè)晶體管,性能提升超 1 倍
2019 年,Cerebras Systems 發(fā)布了其第一代 WSE 芯片,這款芯片具有 40 萬個(gè)內(nèi)核和 1.2 萬億個(gè)晶體管,使用臺(tái)積電 16nm 工藝制程。
今年 4 月,Cerebras Systems 推出了第二代處理器 WSE-2,具有破紀(jì)錄的 2.6 萬億個(gè)晶體管(市場(chǎng)上最大的 GPU 只有 540 億個(gè)晶體管)和 85 萬顆 AI 優(yōu)化內(nèi)核,大小類似餐盤,采用臺(tái)積電的 7nm 工藝。相比于第一代 WSE 處理器,WSE-2 在 AI 內(nèi)核數(shù)量、晶體管數(shù)量、密度、內(nèi)存帶寬等參數(shù)上都有著一倍以上的提升。
▲ Cerebras 兩代處理器參數(shù)對(duì)比(來源:AnandTech)
和當(dāng)下的很多芯片不同,Cerebras Systems 的 WSE-1 和 WSE-2 并不是用晶圓上的一小部分制成,而是將整個(gè)直徑為 300mm 的晶圓加工成 1 顆芯片。雖然這種芯片體積較大,但是由于晶體管和內(nèi)核的數(shù)量、互連優(yōu)勢(shì),相比同等算力的 GPU 集群,其功耗和所占空間都更小。
傳統(tǒng)的 GPU 集群如果想要達(dá)到同等算力,需要數(shù)十個(gè)幾架承載數(shù)百甚至數(shù)千個(gè) GPU 芯片。而 CS-2 只有 26 英寸高,是標(biāo)準(zhǔn)數(shù)據(jù)中心機(jī)架的 1/3。
Cerebras Systems 的技術(shù)也在醫(yī)藥、天文、科研等多個(gè)領(lǐng)域發(fā)揮出了作用。
無論是美國阿貢國家實(shí)驗(yàn)室、勞倫斯利弗莫爾國家實(shí)驗(yàn)室、匹茲堡超算中心、愛丁堡大學(xué)超算中心等科研機(jī)構(gòu)還是葛蘭素史克、東京電子器件等廠商都成為了 Cerebras Systems 的忠實(shí)客戶。
03.參數(shù)規(guī)模提升 100 倍,還在云端提供深度學(xué)習(xí)服務(wù)
今年 8 月 24 日,Cerebras Systems 還推出了世界上首個(gè)具備腦規(guī)模的 AI 解決方案。
人腦包含約 100 萬億個(gè)突觸結(jié)構(gòu),而此前最大的人工智能硬件集群大約只有 1 萬億參數(shù),類似于同等數(shù)量的突觸,僅有人腦規(guī)模的 1%。而 Cerebras Systems 單一的 CS-2 支持超過 120 萬億參數(shù),在規(guī)模上達(dá)到了人腦水平,推動(dòng)了 AI 神經(jīng)網(wǎng)絡(luò)技術(shù)的發(fā)展。
阿貢國家實(shí)驗(yàn)室副主任 Rick Stevens 談道:“Cerebras 的發(fā)明將提高 100 倍的參數(shù)容量,它有可能改變行業(yè)。我們將首次能夠探索大腦大小的模型,開辟了廣闊的研究和洞察的新途徑?!?/p>
該解決方案包括四項(xiàng)核心技術(shù),代號(hào)分別為 Weight Streaming、MemoryX、SwarmX 和 Sparsity。
Weight Streaming 可以讓 AI 模型參數(shù)存儲(chǔ)在芯片外,同時(shí)提供與芯片相同的訓(xùn)練和推理性能的能力,簡化了工作負(fù)載分配模型。
MemoryX 是一種新的內(nèi)存擴(kuò)展技術(shù),可實(shí)現(xiàn) 2.4 PTAB 的高性能內(nèi)存,支持 120 萬億的參數(shù)模型。
SwarmX 是一種高性能、AI 優(yōu)化的通信互連結(jié)構(gòu),可以互連多達(dá) 1.63 億個(gè) AI 內(nèi)核,跨越 192 個(gè) CS-2 系統(tǒng)協(xié)同工作,訓(xùn)練單個(gè)神經(jīng)網(wǎng)絡(luò)。
Sparsity 可以讓用戶選擇模型的重量稀疏程度,減少模型處理所需的 FLOP 算力和時(shí)間。
9 月 16 日,美國深度學(xué)習(xí)云服務(wù)商 Cirrascale Cloud Services 宣布采用 CS-2 系統(tǒng)和 WSE-2 處理器。
在其應(yīng)用中,8GPU 服務(wù)器比 CS-2 系統(tǒng)訓(xùn)練自然語言處理 NLP BERT 模型的時(shí)間慢 9.5 倍。而在訓(xùn)練精度上,用戶需要超過 120 個(gè) GPU 才能匹配單個(gè) CS-2 系統(tǒng)的訓(xùn)練精度。
▲ Cerebras Systems 系統(tǒng)在機(jī)房中
04.結(jié)語:Cerebras Systems 開拓巨型芯片路線獲認(rèn)可
需要指出的是,Cerebras Systems 的 WSE 系列芯片并非單純的放大芯片尺寸。大尺寸芯片需要芯片企業(yè)在互連、芯片封裝、散熱等方面都有著獨(dú)特的技術(shù)和解決方案,這些技術(shù)方案也體現(xiàn)在了 Cerebras Systems 腦規(guī)模 AI 解決方案中。
雖然其芯片的尺寸較大,無法用于 PC、移動(dòng)設(shè)備等領(lǐng)域,但 Cerebras Systems 也向我們展示了巨型芯片的廣闊應(yīng)用前景,其產(chǎn)品可以在超算、云端等機(jī)構(gòu)或企業(yè)的方案占據(jù)一席之地。而新一輪的融資代表了資本對(duì)這一技術(shù)路線的認(rèn)可。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。