IT之家 7 月 30 日消息,Meta 公司發(fā)布 Meta Segment Anything Model 2(SAM2),SAM 2 能分割任何目標(biāo),能在一個(gè)視頻中實(shí)時(shí)追蹤所有鏡頭 —— 解鎖新的視頻編輯能力并在混合現(xiàn)實(shí)中提供新的體驗(yàn)。
Meta 公司今天發(fā)布新聞稿,介紹了全新的 Meta Segment Anything Model 2(SAM 2)模型,先支持分割視頻和圖像中的對(duì)象。
開源
Meta 公司宣布將以 Apache 2.0 許可發(fā)布 SAM 2,因此任何人都可以使用它來構(gòu)建自己的體驗(yàn)。
Meta 還將以 CC BY 4.0 許可共享用于構(gòu)建 SAM 2 的數(shù)據(jù)集 SA-V,并發(fā)布基于網(wǎng)絡(luò)的演示體驗(yàn),所有人都可以在其中試用 Meta 的模型版本。
對(duì)象分割
對(duì)象分割(Object segmentation)是指識(shí)別圖像中與感興趣物體相對(duì)應(yīng)的像素,是計(jì)算機(jī)視覺領(lǐng)域的一項(xiàng)基本任務(wù)。
Meta 公司去年發(fā)布了 SAM 1 基礎(chǔ)模型,已經(jīng)可以在圖像上分割對(duì)象。而最新發(fā)布的 SAM 2 可用于圖片和視頻,并可以實(shí)現(xiàn)實(shí)時(shí)、可提示的對(duì)象分割。
SAM 2 在圖像分割準(zhǔn)確性方面超越了以往的能力,在視頻分割性能方面優(yōu)于現(xiàn)有成果,同時(shí)所需的交互時(shí)間減少了三倍。
SAM 2 還可以分割任何視頻或圖像中的任何對(duì)象(通常稱為零鏡頭泛化),這意味著它可以應(yīng)用于以前未見過的視覺內(nèi)容,而無需進(jìn)行自定義調(diào)整。
IT之家附上參考地址
Introducing SAM 2: The next generation of Meta Segment Anything Model for videos and images
SAM 2: The next generation of Meta Segment Anything Model for videos and images
Meta Unveils SAM 2: A Unified Model for Real-Time Object Segmentation in Images and Videos
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。