剛被 OpenAI 開除的泄密者,光速投奔馬斯克。
當事人 Pavel Izmailov(以下簡稱小 P),正是 Ilya 盟友之一,在 Ilya 領導的超級對齊團隊干過。
半個月前,小 P 被指疑似泄露 Q * 相關機密而被開除。雖然不清楚他泄密了個啥,但當時鬧得沸沸揚揚。
說時遲那時快,現(xiàn)在,他的推特個人簡介上,已經(jīng)大張旗鼓寫著:
研究員 @xai
要不說老馬招人下手快呢,除了小 P,不少優(yōu)秀人才近期都被馬斯克攬入麾下。
看熱鬧的網(wǎng)友炸開了鍋??渌娜瞬簧伲Q他干得漂亮:
也有人嫌棄死了,覺得雇傭泄露機密信息的人,這行為無異于撿垃圾。
而且最近 xai 的表現(xiàn) —— 包括發(fā)布 Grok 1.5V 在內(nèi),狠狠刷了波存在感,不由得引人感慨:
xAI 將成為游戲的主要參與者,與 OpenAI、Anthropic 分庭抗禮。
聘請 OpenAI 開除的泄密者
事情是這樣的,有個對大模型領域新鮮事兒極其關注的博主,有了個大發(fā)現(xiàn):
馬斯克旗下 xAI 的新晉員工,可不少?????
而且其中還有數(shù)人研究方向與 OpenAI 最神秘的 Q * 算法有點關系,看來馬斯克才是 Q * 的真正信徒。
具體是哪些人剛剛擇 xAI 而棲了呢?
最為矚目的就是咱們開頭提到過的小 P。他還是紐約大學 CILVR 小組成員,本人透露 2025 年秋將加入紐約大學 Tandon CSE、Courant CS 擔任助理教授。
半個月前,他的個人頁面還寫著,“在 OpenAI 搞搞大模型推理工作”。
半個月后,物是人非。
但小 P 的推特置頂還是沒有改變,是超級對齊團隊的第一篇論文,小 P 是這篇論文的作者。
超級對齊團隊組團于去年 7 月份,是 OpenAI 為應對不同時間尺度上大模型可能會產(chǎn)生的安全問題,成立的三大安全團隊之一。
超級對齊團隊負責遙遠的未來,給超越人類的超級智能安全性奠定基礎,由 Ilya Sutskever 和 Jan Leike 領導。
說起來,雖然 OpenAI 看起來似乎在安全方面很重視,但其內(nèi)部對 AI 的安全開發(fā)存在很大分歧已不是什么秘密。
這種分歧甚至被認為是去年 11 月 OpenAI 董事會宮斗大戲的最主要原因。
網(wǎng)傳 Ilya Sutskever 成為“政變”帶頭人,就是因為看到了一些東西讓他內(nèi)心不安。
而 Ilya 帶領的這個超級對齊團隊,很多成員也是站在 Ilya 這邊,在后來支持奧特曼的比心接龍活動中,這個超級對齊團隊成員也基本保持了沉默。
然而宮斗事件平息后,Ilya 仿佛在 OpenAI 蒸發(fā)了一般,惹得外界流言四起,但他再也沒有公開露面過,甚至都沒在網(wǎng)上進行澄清或辟謠。
因此,超級對齊團隊現(xiàn)在是個什么情況,咱也不知道。
小 P 作為超級對齊團隊成員、Ilya 部下,半個月前從 OpenAI 被畢業(yè),被網(wǎng)友猜測是奧特曼的“秋后算賬”。
人才啊,他連夜投奔馬斯克
雖然外界還不知道 Q * 的全貌,但種種跡象表明,它致力于把大模型與強化學習、搜索算法等結合起來,增強 AI 推理能力。
除了最有八卦點的小 P,下面幾位新加入 xAI 的人才研究方向多多少少與之相關。
Qian Huang,目前還是斯坦福大學的一名博士生。
去年夏天開始,Qian Huang 在 Google DeepMind 工作,目前推特上已經(jīng)注明了 @xai,暫不知擔任什么職務。
但從 GitHub 個人主頁可以看到,她的研究方向是將機器推理與人類推理結合起來,特別是新知識的合理性、可解釋性和可擴展性。
Eric Zelikman,斯坦福博士在讀生,推特上寫明“study why @xai”。
之前,他先后在 Google 研究院和微軟研究院待過一段時間。
他在個人主頁上說:“我對算法如何(以及是否)能夠?qū)W習有意義的表示和推理很著迷,我正在 xAI 研究這回事兒?!?/p>
今年 3 月他所在團隊推出 Quiet-Star 算法,確實也是 Q*,讓大模型學會自己獨立思考。
Aman Madaan,卡內(nèi)基梅隆大學語言技術研究所博士在讀生。
他的研究領域包括大型語言模型、反饋驅(qū)動的生成以及代碼生成和自然語言推理的交叉領域,研究的首要主題是使用推理時間計算(Inference-Time Compute)來增強推理能力(Reasoning)。
攻讀博士學位期間,Aman 曾擔任 Google 大腦和艾倫人工智能研究所的學生研究員和合作者;更早以前,他還是 Oracle 的主要技術人員。
加上 Pavel Izmailov 在內(nèi)的幾位新員工,自此馬斯克的技術人才版圖已擴增至 34 人(不包括馬斯克本人),相比于最開始 12 人的創(chuàng)始團隊增長了約 2 倍。
在新加入的成員當中,華人共計 7 人,加上創(chuàng)始團隊的 5 人,自此共有 12 人。
Xiao Sun,此前曾在 Meta、IBM 就職,博士畢業(yè)于耶魯,北大校友。
Ting Chen,此前曾在谷歌 DeepMind、谷歌大腦就職,本科畢業(yè)于北郵。
Juntang Zhuang,此前曾在 OpenAI 就職,DALL-3、GPT-4 核心貢獻者,本科畢業(yè)于清華,碩博畢業(yè)于耶魯。
Xuechen Li,今年博士畢業(yè)于斯坦福,羊駝 Alpaca 系列大模型的核心貢獻者。
Lianmin Zheng,UC 伯克利計算機博士,小羊駝 Vicuna、Chatbot Arena 創(chuàng)建者。
Qian Huang,斯坦福在讀博士生,畢業(yè)于天津南開中學。
Haotian Liu,威斯康星大學麥迪遜分校,本科畢業(yè)于浙江大學,LLaVA 一作。
而從機構分布上看,主要還是集中于谷歌、斯坦福、Meta、OpenAI、微軟等機構,他們都有豐富的大模型訓練經(jīng)驗,比如 GPT 系列、大小羊駝系列,以及谷歌 Meta 相關大模型。
從加入時間來看,更多還是集中在今年 2-3 月,平均每 5 天就有一名新成員加入共計 13 人。去年 8-10 月間只有 5 人加盟。
而如果結合相對應 Grok 的進展,也能看到馬斯克 xAI 每一階段招人計劃。
比如今年 3 月 29 日,馬斯克突然發(fā)布 Grok-1.5,上下文長度飆升,從原本的 8192 增長到 128k,和 GPT-4 齊平。
而將時間推回一個月(今年 2 月),OpenAI 前員工 Juntang Zhuang 加盟 xAI。他在 OpenAI 發(fā)明了 GPT-4 Turbo 支持 128k 長上下文能力的算法。
還有像今年 4 月 15 日,Grok-1.5V 多模態(tài)模型發(fā)布,它能處理除文本信息外,包括圖表、屏幕截圖、照片在內(nèi)的各種視覺信息。
而今年 3 月,LLaVA 一作 Haotian Liu 才剛剛加盟。LLaVA 是端到端訓練多模態(tài)大模型,展現(xiàn)出了類似于 GPT-4V 的能力。而新版 LLaVA-1.5 在 11 個基準上實現(xiàn)了 SoTA。
那現(xiàn)在不妨可以大膽設想一下,新一波人才引進,Grok 可能會有什么樣的新升級呢?
網(wǎng)友:不管,Grok-1.5 在哪呢(還沒開源呢)。
但是不管怎么說,根據(jù)此前馬斯克所說的人才標準來看,這位網(wǎng)友道出了“實情”:
大家都說老馬家大模型公司都是人才,其實人家馬斯克根本不在乎你有才沒才的。
人家說了,只要你能每周工作 80 小時還不崩潰,就能加入他們。
80 個小時?!量子位掐指一算,那不就是一周無休每天工作 11.5 個小時嗎……
別說智商了,這活從體力上咱就干不了干不了。
本文來自微信公眾號:量子位 (ID:QbitAI),作者:白交 衡宇
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。