AAAI论文首发:几何驱动的自监督的人体3D姿态估计方法
徐亦达团队和北理工李侃老师的共同博士生李杨在AAAI 的发表了一篇机器学习论文,本人得到徐老师授权在本站发布论文。
Geometry-driven Self-supervised Method for 3D Human Pose Estimation
论文第一作者:李杨
论文介绍
Geometry-driven Self-supervised Method for 3D Human Pose Estimation
几何驱动的自监督的人体3D姿态估计方法
论文摘要
近年来,基于深度学习的单目人体3D姿态估计吸引了越来越多研究人员的关注。深度神经网络的训练依赖于大量的标注数据,然而人体3D关节点的标注是一项成本昂贵的工作。为了解决此问题,本文提出了一种新的自监督的人体3D姿态估计方法,不同于现有的弱/自监督方法,我们的方法完全依靠于相机几何先验知识,无需任何额外的人体3D关节点标注。我们的方法总体上基于两阶段的框架:人体2D姿态估计和2D到3D姿态提升。为了达到自监督网络训练的目的,我们提出了变换重投影损失,利用多视角一致性信息构建损失函数训练2D到3D姿态提升网络。此外,我们使用人体2D关节点的置信度来整合不同视角的损失,以减轻由于遮挡导致的噪声的影响。最后,我们设计了一个用于训练的双分支网络结构,该网络可以在训练过程中保留人体3D姿态的尺度信息。我们在两个主流的人体3D姿态数据集,Human3.6M和MPI-INF-3DHP,上验证了我们方法的性能,实验结果表明我们方法的性能明显优于最近的弱/自监督方法。
算法框架
实验效果
在两个主流的人体3D姿态数据集,Human3.6M和MPI-INF-3DHP的效果
总结
论文下载:
https://github.com/leon532/Geometry-driven-Self-supervised-Method-for-3D-Human-Pose-Estimation/blob/master/AAAI2020/AAAI-LiY.7454.pdf
或者链接:https://pan.baidu.com/s/1EkTX1MsgYumluPIIJuga9w
提取码:dfzr
不多说了,徐亦达老师团队出品,必属精品,建议下载慢慢看。
备注:公众号菜单包含了整理了一本AI小抄,非常适合在通勤路上用学习。
往期精彩回顾那些年做的学术公益-你不是一个人在战斗适合初学者入门人工智能的路线及资料下载机器学习在线手册深度学习在线手册备注:加入本站微信群或者qq群,请回复“加群”加入知识星球(4500+用户,ID:92416895),请回复“知识星球”
喜欢文章,点个在看
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!