您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息

南科大黑科技:一键消除视频人物,特效师的救星来了!

2024/3/12 1:08:14发布25次查看
来自南方科技大学的这款视频分割模型,可以追踪视频中的任意事物。
不仅会“看”,还会“剪”,从视频中去掉个人,对它来说也是轻轻松松的事。
而操作上,你唯一需要做的就是点几下鼠标。
这位特效艺术家看到消息后仿佛找到了救星,直言这一产品将改变cgi行业的游戏规则。
这款模型叫做tam(track anything model),是不是和meta的图像分割模型sam名字很像?
的确,tam就是将sam扩展到了视频领域,点亮了动态物体追踪的技能树。
视频分割模型其实不是新技术了,但传统的分割模型并没有减轻人类的工作。
这些模型使用的训练数据全部需要人工标注,甚至在使用时还需要先用特定物体的遮罩参数进行初始化。
sam的出现为解决这一问题提供了前提——至少初始化数据不再需要人工获取。
当然,tam也并不是逐帧使用sam再叠加,还需要构建对应的时空关系。
团队将sam与名为xmem的记忆模块进行了集成。
只需要在第一帧中用sam生成初始参数,xmem便可以指导接下来的追踪过程。
追踪的目标还可以是很多个,比如下面的清明上河图:
甚至场景发生改变,也不影响tam的表现:
我们体验了一番发现,tam采用了交互式用户界面,操作上十分简单友好。
硬实力方面,tam的追踪效果的确也不错:
但是,消除功能在一些细节上的精确度还有待提高。
从sam到tam前文已经提到,tam是在sam的基础之上结合记忆能力建立时空关联实现的。
具体而言,第一步是借助sam的静态图像分割能力对模型进行初始化。
只需一次点击,sam就能生成目标物体的初始化遮罩参数,代替了传统分割模型中的复杂初始化过程。
有了初始参数,团队就可以将它交给xmem,进行半人工干预训练,大大减少了人类工作量。
在这一过程中,会有一些人工预测结果被用于和xmem的输出进行比较。
实际过程中,随着时间的增长,得到准确的分割结果对xmem变得越来越困难。
当结果与预期差距过大时,将进入再分割环节,这一步还是由sam完成。
经过sam的再优化,大部分输出结果已比较准确,但还有一部分需要人工再调整。
tam的训练过程大致就是这样,而开头提到的物体消除的技能是tam与e2fgvi结合形成的。
e2fgvi本身也是一个视频元素消除工具,在tam精准分割的加持下,其工作更加有的放矢。
为了测试tam,团队使用了davis-16和davis-17数据集对其进行了评估。
直观感受还是很不错的,从数据上看也的确如此。
tam虽然无需手工设置遮罩参数,但其j(区域相似度)和f(边界准确度)两项指标已十分接近手工模型。
甚至在davis-2017数据集上的表现还略胜于其中的stm。
其他初始化方式中,siammask的表现根本无法和tam相提并论;
另一种名为mivos方法虽然表现好于tam,但毕竟已经进化了8轮……
团队简介tam来自南方科技大学视觉智能与感知(vip)实验室。
该实验室研究方向包括文本-图像-声音多模型学习、多模型感知、强化学习和视觉缺陷检测等。
目前团队已发表论文30余篇,获得专利5项。
团队领导人是南方科技大学郑锋副教授,博士毕业于英国谢菲尔德大学,先后供职于中科院深研院、腾讯优图等机构,于2018年进入南科大,2021年晋升为副教授。
论文地址:
https://arxiv.org/abs/2304.11968
github页面:
https://github.com/gaomingqi/track-anything
参考链接:
https://twitter.com/bilawalsidhu/status/1650710123399233536?s=20
以上就是南科大黑科技:一键消除视频人物,特效师的救星来了!的详细内容。
该用户其它信息

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录 Product