IT之家 11 月 19 日消息,由北京大學(xué)、清華大學(xué)、鵬城實驗室、阿里巴巴達摩院以及理海大學(xué)(Lehigh University)組成的研究團隊,最新推出了 LLaVA-o1,這是首個具備自發(fā)性(Spontaneous,具體解釋可參考文末)、類似于 GPT-o1 的系統(tǒng)性推理視覺語言模型。
LLaVA-o1 是一種新型的視覺語言模型(VLM),其設(shè)計目標(biāo)是進行自主的多階段推理。
LLaVA-o1 擁有 110 億個參數(shù),基于 Llama-3.2-Vision-Instruct 模型開發(fā),設(shè)計了總結(jié)(summary)、描述(caption)、推理(reasoning)和結(jié)論(conclusion)4 個推理階段。
該模型使用名為 LLaVA-o1-100k 的數(shù)據(jù)集進行微調(diào),該數(shù)據(jù)集源自視覺問答(VQA)來源和由 GPT-4o 生成的結(jié)構(gòu)化推理注釋。
LLaVA-o1 采用了階段級束搜索(stage-level beam search)的推理時間 Scaling 技術(shù),能夠在每個推理階段生成多個候選答案,并選取最佳答案。
該模型在處理復(fù)雜任務(wù)時具備較強的能力,在復(fù)雜視覺問答任務(wù)中,可以突破傳統(tǒng)視覺語言模型的局限性。
與基礎(chǔ)模型相比,LLaVA-o1 在多模態(tài)推理基準測試中提高了 8.9% 的性能,超過了許多大型和閉源的競爭對手。
LLaVA-o1 的推出填補了文本和視覺問答模型之間的重要空白,在多個基準測試中的優(yōu)異表現(xiàn),特別是在數(shù)學(xué)和科學(xué)視覺問題的推理領(lǐng)域,展示了結(jié)構(gòu)化推理在視覺語言模型中的重要性。
自發(fā)性人工智能(Spontaneous AI)是指能夠模擬動物自發(fā)行為的人工智能系統(tǒng)。這種技術(shù)的研究主要集中在如何通過機器學(xué)習(xí)和復(fù)雜的時間模式設(shè)計出具有自發(fā)行為的機器人或智能系統(tǒng)。
IT之家附上參考地址
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。