当前基于深度学习的人体3D姿态估计网络训练面临一个显著挑战:需要大量的人体3D关节点标注数据。这一过程不仅繁琐且耗时,限制了技术的广泛应用和快速发展。
本发明提出了一种基于几何驱动的自监督人体3D姿态估计网络训练方法。该方法不依赖于人体3D关节点标注数据,而是利用几何先验知识来避免繁琐的标注过程。通过引入变换重投影损失,探索多视角一致性,以训练人体3D姿态估计网络。同时,根节点位置估计网络的提出,保留了重投影2D姿态的尺度信息,进一步提升了3D姿态预测的准确性。此外,网络预训练方法的应用,有效促进了网络训练的收敛。
本方法凭借自监督学习和几何驱动的策略,显著降低了对大量标注数据的依赖,简化了训练流程。通过多视角一致性探索和尺度信息保留,实现了更高精度的人体3D姿态预测。同时,网络预训练方法的应用提升了训练效率,使得该方法在人体3D姿态估计领域具有显著的创新性和竞争优势。
20241220
信息传输、软件和信息技术服务业
1、成果由北京理工大学单独持有;2、本成果已授权专利
技术许可、合作开发、技术服务和咨询、技术转让等
可国(境)内外转让
会同成果完成团队与意向方共同研讨合作方案
北京理工大学产业开发研究院
北京市科学技术委员会;中关村科技园区管理委员会
本发明涉及一种基于几何驱动的自监督人体3D姿态估计网络训练方法,属于人工智能计算机视觉领域,能够有效解决当前基于深度学习的人体3D姿态网络训练需要大量的人体3D关节点标注数据的技术问题。本发明方法,不依赖人体3D关节点标注数据,完全依靠几何先验知识,可以避免繁琐的人体3D关节点的标注过程,所提出的变换重投影损失可以探索多视角一致性以训练人体3D姿态估计网络,可以在训练过程中获得更加准确的人体3D姿态预测结果,所提出的根节点位置估计网络在3D姿态估计网络训练过程中保留重投影的2D姿态的尺度信息,可以在训练过程中获得更加准确的人体3D姿态预测结果,所提出的网络预训练方法可以帮助网络训练有效地收敛。
