Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了280,059,729字

最近回复

该文章投稿至Nemo社区   资讯  板块 复制链接


多媒体顶会 ACMMM 2023 奖项出炉:浙大斩落最佳论文、清华拿下最佳创意

发布于 2023/11/14 06:48 123浏览 0回复 1,467

IT之家 11 月 14 日消息,第 31 届国际多媒体会议(ACM International Conference on Multimedia,ACMMM)于 10 月 29 日至 11 月 2 日在加拿大渥太华举行,中国团队在在本次会议上收获满满。

IT之家注:ACM 国际多媒体会议(ACMMM)自 1993 年首次召开以来,每年召开一次,已经成为多媒体领域顶级会议,也是中国计算机学会推荐的 A 类国际学术。

今年 ACMMM 会议累计收到 3072 篇投稿论文,录用 902 篇,录用率为 29.3%,其中浙江大学团队斩获最佳论文奖(Best Paper Award)、南京航空航天大学团队获得荣誉提名奖(Honorable Mention Award),清华大学团队获得勇敢创意奖(Brave New Idea Award)。

最佳论文奖

本次最佳论文奖论文标题为《 CATR: Combinatorial-Dependence Audio-Queried Transformer for Audio-Visual Video Segmentation》(CATR: 用于视频分割的组合依赖型音频查询转换器)。

论文链接:https://arxiv.org/abs/2309.09709

开源地址:https://github.com/aspirinone/CATR.github.io

作者单位:Zhejiang University;Finvolution Group;

该论文主要介绍了跨模态信息引导的视频分割,论文中提出了一种基于组合依赖和音频查询的视频分割框架(CATR)。

该方案像素级掩码标注视频中的声音对象,并关联声音和发出声音的对象,从而在视频中识别和分割发出声音的人。

荣誉提名奖

RefineTAD: Learning Proposal-free Refinement for Temporal Action Detection

论文链接:https://dl.acm.org/doi/pdf/10.1145/3581783.3611872

作者单位:Nanjing University of Aeronautics and Astronautics;Nanjing University

该论文主要研究时间动作检测(TAD),通过全新的定位优化框架,解耦定位细化过程与传统动作检测方法,在每个时间点生成多尺度的定位细化信息。

勇敢创意奖

Semantics2Hands: Transferring Hand Motion Semantics between Avatars

论文链接:https://arxiv.org/abs/2308.05920

开源地址:https://github.com/abcyzj/Semantics2Hands

作者单位:Tsinghua University;Tsinghua University Beijing National Research Center for Information Science and Technology

该论文主要在动画制作和人机交互中,保持虚拟人物的手部动作语义前提下进行手部动作迁移。

更多信息可以访问:https://www.acmmm2023.org/

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/732/295.htm]

点赞(0)
点了个评