設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

多媒體頂會 ACMMM 2023 獎項出爐:浙大斬獲最佳論文、清華拿下最佳創(chuàng)意

2023/11/14 6:46:55 來源:IT之家 作者:故淵 責編:故淵

IT之家 11 月 14 日消息,第 31 屆國際多媒體會議(ACM International Conference on Multimedia,ACMMM)于 10 月 29 日至 11 月 2 日在加拿大渥太華舉行,中國團隊在在本次會議上收獲滿滿。

IT之家注:ACM 國際多媒體會議(ACMMM)自 1993 年首次召開以來,每年召開一次,已經(jīng)成為多媒體領(lǐng)域頂級會議,也是中國計算機學會推薦的 A 類國際學術(shù)。

今年 ACMMM 會議累計收到 3072 篇投稿論文,錄用 902 篇,錄用率為 29.3%,其中浙江大學團隊斬獲最佳論文獎(Best Paper Award)、南京航空航天大學團隊獲得榮譽提名獎(Honorable Mention Award),清華大學團隊獲得勇敢創(chuàng)意獎(Brave New Idea Award)。

最佳論文獎

本次最佳論文獎?wù)撐臉祟}為《 CATR: Combinatorial-Dependence Audio-Queried Transformer for Audio-Visual Video Segmentation》(CATR: 用于視頻分割的組合依賴型音頻查詢轉(zhuǎn)換器)。

論文鏈接:https://arxiv.org/abs/2309.09709

開源地址:https://github.com/aspirinone/CATR.github.io

作者單位:Zhejiang University;Finvolution Group;

該論文主要介紹了跨模態(tài)信息引導(dǎo)的視頻分割,論文中提出了一種基于組合依賴和音頻查詢的視頻分割框架(CATR)。

該方案像素級掩碼標注視頻中的聲音對象,并關(guān)聯(lián)聲音和發(fā)出聲音的對象,從而在視頻中識別和分割發(fā)出聲音的人。

榮譽提名獎

RefineTAD: Learning Proposal-free Refinement for Temporal Action Detection

論文鏈接:https://dl.acm.org/doi/pdf/10.1145/3581783.3611872

作者單位:Nanjing University of Aeronautics and Astronautics;Nanjing University

該論文主要研究時間動作檢測(TAD),通過全新的定位優(yōu)化框架,解耦定位細化過程與傳統(tǒng)動作檢測方法,在每個時間點生成多尺度的定位細化信息。

勇敢創(chuàng)意獎

Semantics2Hands: Transferring Hand Motion Semantics between Avatars

論文鏈接:https://arxiv.org/abs/2308.05920

開源地址:https://github.com/abcyzj/Semantics2Hands

作者單位:Tsinghua University;Tsinghua University Beijing National Research Center for Information Science and Technology

該論文主要在動畫制作和人機交互中,保持虛擬人物的手部動作語義前提下進行手部動作遷移。

更多信息可以訪問:https://www.acmmm2023.org/

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:科學,浙江大學

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知