一种基于几何驱动的自监督人体3D姿态估计网络训练方法

联系合作
新一代信息技术
成果单位: 北京理工大学
合作方式: 自行实施合作开发技术转让技术许可技术入股
所处阶段: 概念
关键词: 人工智能计算机视觉人体3D姿态几何驱动自监督学习变换重投影多视角一致性根节点估计尺度信息保留网络预训练
总得分 (满分100)
0
资本强度 (满分0)
该成果得分:0

核心问题

当前基于深度学习的人体3D姿态估计网络训练面临一个显著挑战:需要大量的人体3D关节点标注数据。这一过程不仅繁琐且耗时,限制了技术的广泛应用和快速发展。

解决方案

本发明提出了一种基于几何驱动的自监督人体3D姿态估计网络训练方法。该方法不依赖于人体3D关节点标注数据,而是利用几何先验知识来避免繁琐的标注过程。通过引入变换重投影损失,探索多视角一致性,以训练人体3D姿态估计网络。同时,根节点位置估计网络的提出,保留了重投影2D姿态的尺度信息,进一步提升了3D姿态预测的准确性。此外,网络预训练方法的应用,有效促进了网络训练的收敛。

竞争优势

本方法凭借自监督学习和几何驱动的策略,显著降低了对大量标注数据的依赖,简化了训练流程。通过多视角一致性探索和尺度信息保留,实现了更高精度的人体3D姿态预测。同时,网络预训练方法的应用提升了训练效率,使得该方法在人体3D姿态估计领域具有显著的创新性和竞争优势。

成果公开日期

20241220

所属产业领域

信息传输、软件和信息技术服务业

转化现有基础

1、成果由北京理工大学单独持有;2、本成果已授权专利

转化合作需求

技术许可、合作开发、技术服务和咨询、技术转让等

转化意向范围

可国(境)内外转让

转化预期效益

会同成果完成团队与意向方共同研讨合作方案

项目名称

北京理工大学产业开发研究院

项目课题来源

北京市科学技术委员会;中关村科技园区管理委员会

摘要

本发明涉及一种基于几何驱动的自监督人体3D姿态估计网络训练方法,属于人工智能计算机视觉领域,能够有效解决当前基于深度学习的人体3D姿态网络训练需要大量的人体3D关节点标注数据的技术问题。本发明方法,不依赖人体3D关节点标注数据,完全依靠几何先验知识,可以避免繁琐的人体3D关节点的标注过程,所提出的变换重投影损失可以探索多视角一致性以训练人体3D姿态估计网络,可以在训练过程中获得更加准确的人体3D姿态预测结果,所提出的根节点位置估计网络在3D姿态估计网络训练过程中保留重投影的2D姿态的尺度信息,可以在训练过程中获得更加准确的人体3D姿态预测结果,所提出的网络预训练方法可以帮助网络训练有效地收敛。

试试对话AI技术经理人
WENXIAOGUO
问小果
该成果有哪些相似成果?
该成果可能有哪些需求方?
该成果的市场前景如何?
北京理工大学的相关成果还有哪些?