IT之家 11 月 14 日消息,第 31 屆國際多媒體會議(ACM International Conference on Multimedia,ACMMM)于 10 月 29 日至 11 月 2 日在加拿大渥太華舉行,中國團隊在在本次會議上收獲滿滿。
IT之家注:ACM 國際多媒體會議(ACMMM)自 1993 年首次召開以來,每年召開一次,已經(jīng)成為多媒體領(lǐng)域頂級會議,也是中國計算機學會推薦的 A 類國際學術(shù)。
今年 ACMMM 會議累計收到 3072 篇投稿論文,錄用 902 篇,錄用率為 29.3%,其中浙江大學團隊斬獲最佳論文獎(Best Paper Award)、南京航空航天大學團隊獲得榮譽提名獎(Honorable Mention Award),清華大學團隊獲得勇敢創(chuàng)意獎(Brave New Idea Award)。
最佳論文獎
本次最佳論文獎?wù)撐臉祟}為《 CATR: Combinatorial-Dependence Audio-Queried Transformer for Audio-Visual Video Segmentation》(CATR: 用于視頻分割的組合依賴型音頻查詢轉(zhuǎn)換器)。
論文鏈接:https://arxiv.org/abs/2309.09709
開源地址:https://github.com/aspirinone/CATR.github.io
作者單位:Zhejiang University;Finvolution Group;
該論文主要介紹了跨模態(tài)信息引導(dǎo)的視頻分割,論文中提出了一種基于組合依賴和音頻查詢的視頻分割框架(CATR)。
該方案像素級掩碼標注視頻中的聲音對象,并關(guān)聯(lián)聲音和發(fā)出聲音的對象,從而在視頻中識別和分割發(fā)出聲音的人。
榮譽提名獎
RefineTAD: Learning Proposal-free Refinement for Temporal Action Detection
論文鏈接:https://dl.acm.org/doi/pdf/10.1145/3581783.3611872
作者單位:Nanjing University of Aeronautics and Astronautics;Nanjing University
該論文主要研究時間動作檢測(TAD),通過全新的定位優(yōu)化框架,解耦定位細化過程與傳統(tǒng)動作檢測方法,在每個時間點生成多尺度的定位細化信息。
勇敢創(chuàng)意獎
Semantics2Hands: Transferring Hand Motion Semantics between Avatars
論文鏈接:https://arxiv.org/abs/2308.05920
開源地址:https://github.com/abcyzj/Semantics2Hands
作者單位:Tsinghua University;Tsinghua University Beijing National Research Center for Information Science and Technology
該論文主要在動畫制作和人機交互中,保持虛擬人物的手部動作語義前提下進行手部動作遷移。
更多信息可以訪問:https://www.acmmm2023.org/
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。