“這是我聽過的黃仁勛最好的采訪!”
英偉達(dá) CEO 黃仁勛的一場爐邊談話再次引起熱議:
英偉達(dá)從來沒有一天談?wù)撨^市場份額。
我們所討論的只是:如何創(chuàng)造下一個(gè)東西?如何將過去需要一年才能完成的飛輪縮短到一個(gè)月?
面對 Azure 和 AWS 等正在自主構(gòu)建 ASIC 芯片的云計(jì)算大客戶,老黃打了個(gè)比喻:
公司受到魚塘大小的限制,唯一的目標(biāo)是用想象力擴(kuò)大魚塘(指創(chuàng)造新市場)。
當(dāng)然了,除了提及英偉達(dá),老黃還討論了 AGI 的智能擴(kuò)展、機(jī)器學(xué)習(xí)的加速、推理與訓(xùn)練的重要性……
雖然時(shí)長感人(近 1 個(gè)半小時(shí)),但一大波網(wǎng)友已經(jīng)看完并交起了作業(yè)(開始卷了是吧?。?/p>
網(wǎng)友:學(xué)起來!學(xué)起來!
黃仁勛:未來推理的增長將遠(yuǎn)大于訓(xùn)練
鑒于視頻較長,量子位先直接給大家劃重點(diǎn)了,老黃的主要觀點(diǎn)包括(省流版):
“口袋里的 AI 助理”將很快以某種形式出現(xiàn),盡管最初可能會不完美;
英偉達(dá)的競爭優(yōu)勢在于建立了從 GPU、CPU、網(wǎng)絡(luò)到軟件和庫的全棧平臺;
擴(kuò)展人工智能的重點(diǎn)已從訓(xùn)練前轉(zhuǎn)移到訓(xùn)練后和推理;
推理(inference)時(shí)計(jì)算將作為一個(gè)全新的智能擴(kuò)展向量;
未來推理的增長將遠(yuǎn)大于訓(xùn)練的增長;
閉源和開源將共存,開源模型可能用于創(chuàng)建特定領(lǐng)域的應(yīng)用程序;
……
(以下為重點(diǎn)部分整理)
Q:關(guān)于個(gè)人 AI 助理的發(fā)展前景,您認(rèn)為我們何時(shí)能在口袋里裝上一個(gè)無所不知的 AI 助理?
A:很快就會以某種形式出現(xiàn)。這個(gè)助理一開始可能不夠完美,但會隨著時(shí)間推移不斷改進(jìn),這是技術(shù)發(fā)展的必然規(guī)律。
Q:目前 AI 領(lǐng)域的發(fā)展變化速度是否是您見過最快的?
A:是的,這是因?yàn)槲覀冎匦掳l(fā)明了計(jì)算。在過去 10 年里,我們將計(jì)算的邊際成本降低了 10 萬倍,而按照摩爾定律可能只能降低 100 倍。
我們通過以下方式實(shí)現(xiàn)了這一點(diǎn):
引入加速計(jì)算,將原本在 CPU 上效率不高的工作轉(zhuǎn)移到 GPU 上
發(fā)明新的數(shù)值精度
開發(fā)新架構(gòu) (如張量核心)
采用高速內(nèi)存 (HBM)
通過 MVLink 和 InfiniBand 實(shí)現(xiàn)系統(tǒng)擴(kuò)展
這種快速發(fā)展使我們從人工編程轉(zhuǎn)向了機(jī)器學(xué)習(xí),整個(gè)技術(shù)棧都在快速創(chuàng)新和進(jìn)步。
Q:模型規(guī)模擴(kuò)展方面有哪些變化?
A:以前我們主要關(guān)注預(yù)訓(xùn)練模型的擴(kuò)展(重點(diǎn)在模型大小和數(shù)據(jù)規(guī)模),這使得所需計(jì)算能力每年增加 4 倍。
現(xiàn)在我們看到后訓(xùn)練 (post-training) 和推理階段也在擴(kuò)展。人類的思維過程不可能是一次性完成的,而是需要快思維、慢思維、推理、反思、迭代和模擬等多個(gè)環(huán)節(jié)。
而且,以前人們認(rèn)為預(yù)訓(xùn)練難,推理簡單,但現(xiàn)在都很難了。
Q:與 3-4 年前相比,您認(rèn)為 NVIDIA 今天的優(yōu)勢是更大還是更小?
A:實(shí)際上更大了。過去人們認(rèn)為芯片設(shè)計(jì)就是追求更多的 FLOPS 和性能指標(biāo),這種想法已經(jīng)過時(shí)。
現(xiàn)在的關(guān)鍵在于整個(gè)機(jī)器學(xué)習(xí)系統(tǒng)的數(shù)據(jù)流水線 (flywheel),因?yàn)闄C(jī)器學(xué)習(xí)不僅僅是軟件編程,而是涉及整個(gè)數(shù)據(jù)處理流程。從一開始的數(shù)據(jù)管理就需要 AI 參與。數(shù)據(jù)的收集、整理、訓(xùn)練前的準(zhǔn)備等每個(gè)環(huán)節(jié)都很復(fù)雜,需要大量處理工作。
Q:與 Intel 等公司相比,Nvidia 在芯片制造和設(shè)計(jì)方面有什么不同的策略?
A:Intel 的優(yōu)勢在于制造和設(shè)計(jì)更快的 x86 串行處理芯片,而 Nvidia 采取不同策略:
在并行處理中,不需要每個(gè)晶體管都很出色
我們更傾向于使用更多但較慢的晶體管,而不是更少但更快的晶體管
寧愿有 10 倍數(shù)量、速度慢 20% 的晶體管,也不要數(shù)量少 10 倍、速度快 20% 的晶體管
Q:關(guān)于定制 ASIC (如 Meta 的推理加速器、亞馬遜的 Trainium、Google 的 TPU) 以及供應(yīng)短缺的情況,這些是否會改變與 NVIDIA 的合作動態(tài)?
A:這些都是在做不同的事情。NVIDIA 致力于為這個(gè)新的機(jī)器學(xué)習(xí)、生成式 AI 和智能 Agent 世界構(gòu)建計(jì)算平臺。
在過去 60 年里,我們重新發(fā)明了整個(gè)計(jì)算技術(shù)棧,從編程方式到處理器架構(gòu),從軟件應(yīng)用到人工智能,每個(gè)層面都發(fā)生了變革。我們的目標(biāo)是創(chuàng)建一個(gè)隨處可用的計(jì)算平臺。
Q:NVIDIA 作為一家公司的核心目的是什么?
A:構(gòu)建一個(gè)無處不在的架構(gòu)平臺。我們不是在爭奪市場份額,而是在創(chuàng)造市場。我們專注于創(chuàng)新和解決下一個(gè)問題,讓技術(shù)進(jìn)步的速度更快。
Q:NVIDIA 對待競爭對手和合作伙伴的態(tài)度是什么?
A:我們對競爭很清醒,但這不會改變我們的使命。我們向 AWS、Azure 等合作伙伴提前分享路線圖,保持透明,即使他們在開發(fā)自己的芯片。對于開發(fā)者和 AI 初創(chuàng)公司,我們提供 CUDA 作為統(tǒng)一入口。
Q:對 OpenAI 的看法如何?如何看待它的崛起?
A: OpenAI 是我們這個(gè)時(shí)代最重要的公司之一。雖然 AGI 的具體定義和時(shí)間點(diǎn)并不是最重要的,但 AI 能力的發(fā)展路線圖將會非常壯觀。從生物學(xué)家到氣候研究者,從游戲設(shè)計(jì)師到制造工程師,AI 已經(jīng)在革新各個(gè)領(lǐng)域的工作方式。
我非常欣賞 OpenAI 推進(jìn)這一領(lǐng)域的速度和決心,并為可以資助下一代模型感到高興。
Q:您認(rèn)為模型層是否正在走向商品化,以及這對模型公司的影響是什么?
A:模型層正在商品化,Llama 的出現(xiàn)使得構(gòu)建模型變得更加便宜。這將導(dǎo)致模型公司的整合,只有那些擁有經(jīng)濟(jì)引擎并能夠持續(xù)投資的公司才能生存。
Q:您如何看待 AI 模型的未來,以及模型與人工智能之間的區(qū)別?
A:模型是人工智能必不可少的組成部分,但人工智能是一種能力,需要應(yīng)用于不同的領(lǐng)域。我們將看到模型層的發(fā)展,但更重要的是人工智能如何應(yīng)用于各種不同的應(yīng)用場景。
Q:您如何看待 X 公司,以及他們建立大型超級集群的成就?
A:他們在 19 天內(nèi)(通常需要 3 年)建造了一個(gè)擁有 100,000 個(gè) GPU 的超級計(jì)算機(jī)集群。這展示了我們的平臺的力量,以及我們能夠?qū)⒄麄€(gè)生態(tài)系統(tǒng)集成在一起的能力。
Q:是否認(rèn)為分布式計(jì)算和推理擴(kuò)展將會發(fā)展到更大規(guī)模?
A:是的,我對此非常熱情和樂觀。推理時(shí)計(jì)算作為一個(gè)全新的智能擴(kuò)展向量,與僅僅構(gòu)建更大的模型截然不同。
Q:在人工智能中,是否很多事情只能在運(yùn)行時(shí)完成?
A:是的,很多智能工作不能先驗(yàn)地完成,很多事情需要在運(yùn)行時(shí)完成。
Q:您如何看待人工智能的安全性?
A:我們必須構(gòu)建安全的人工智能,并為此需要與政府機(jī)構(gòu)合作。我們已經(jīng)在建立許多系統(tǒng)來確保人工智能的安全性,并需要確保人工智能對人類是有益的。
Q:你們公司超過 40% 的收入來自推理,推理的重要性是否因?yàn)橥评礞湺蟠笤黾樱?/p>
A:沒錯,推理鏈讓推理的能力提高了十億倍,這是我們正在經(jīng)歷的工業(yè)革命。未來推理的增長將遠(yuǎn)大于訓(xùn)練的增長。
Q:你們?nèi)绾慰创_源和閉源人工智能模型的未來?
A:開源和閉源模型都將存在,它們對于不同的行業(yè)和應(yīng)用都是必要的。開源模型有助于激活多個(gè)行業(yè),而閉源模型則是經(jīng)濟(jì)模型創(chuàng)新的引擎。
本文來自微信公眾號:量子位(ID:QbitAI),作者:一水
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。