说明:收录全文最新的团体标准 提供单次或批量下载
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202211072450.2 (22)申请日 2022.09.02 (71)申请人 广东工业大 学 地址 510090 广东省广州市越秀区东 风东 路729号 (72)发明人 许伟濠 张伯泉  (74)专利代理 机构 广州粤高专利商标代理有限 公司 44102 专利代理师 刘俊 (51)Int.Cl. G06T 7/73(2017.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种基于深度学习的6D姿态估计方法和系 统 (57)摘要 本发明提供了一种基于深度学习的6D姿态 估计方法和系统, 该方法首先获取目标物体的无 标记码图像和有标记码图像; 之后对目标物体的 有标记码图像进行处理, 之后利用预设的点云补 全神经网络模型获得目标物体表面完整点云数 据和3D模型; 之后将 目标物体的3D模型、 表面完 整点云数据和无标记码图像输入预设的6D姿态 估计神经网络模 型中训练并迭代优化; 最后利用 优化后的6D姿态估计神经网络模型对待预测目 标物体进行6D 姿态估计; 该方法基于深度学习对 目标物体进行6D 姿态估计, 能够有效提高目标物 体6D姿态估计的预测精确度和预测效率, 而且显 著降低了现有技术中目标物体完整点云数据的 获取难度, 降低了生产成本 。 权利要求书3页 说明书12页 附图3页 CN 115457128 A 2022.12.09 CN 115457128 A 1.一种基于深度学习的6D姿态估计方法, 其特 征在于, 包括以下步骤: S1: 分别获取目标物体的无 标记码图像和有标记码图像; S2: 对目标物体的有标记码图像背景和噪声进行分割, 获取目标物体的表面稀疏点云 数据; S3: 对目标物体的表面稀疏点云数据进行处理, 获取目标物体的表面稠密点云数据和 目标物体的3D模型; S4: 将目标物体的无标记码图像和表面稠密点云数据输入到预设的点云补全神经网络 模型中, 获得目标物体的表面完整点云数据; S5: 将目标物体的3D模型、 表面完整点云数据和目标物体的无标记码图像输入到预设 的6D姿态估计神经网络模型中进行训练, 获得优化后的6D姿态估计神经网络模型; S6: 获取待预测的目标物体图像, 将待预测的目标物体图像输入到优化后的6D姿态估 计神经网络模型, 获取待预测目标物体的6D姿态。 2.根据权利要求1所述的一种基于深度 学习的6D姿态估计方法, 其特征在于, 所述步骤 S1中, 分别获取目标物体的无 标记码图像和有标记码图像的具体方法为: 用单目相机从目标物体的多个方向进行拍摄, 获取一组目标物体的无标记码图像, 并 记录每张无 标记码图像对应的相机姿态; 将若干ARUCO标记码围绕目标物体放置, 利用所述单目相机从目标物体的多个方向进 行拍摄, 获取一组目标物体的有标记码图像。 3.根据权利要求2所述的一种基于深度 学习的6D姿态估计方法, 其特征在于, 所述目标 物体的有标记码图像中包括至少3个不被遮挡且清晰的ARUCO标记码。 4.根据权利要求3所述的一种基于深度 学习的6D姿态估计方法, 其特征在于, 所述步骤 S3中, 对目标物体的表面稀疏点云数据进行处理, 获取目标物体的表面稠密点云数据和目 标物体的3D模型的具体方法为: 使用PMVS2对目标物体的表面稀疏点云数据进行处理, 获取目标物体的表面稠密点云 数据、 表面 三角网格化数据和纹 理映射数据; 根据所述表面 三角网格化数据和纹 理映射数据生成目标物体的3D模型。 5.根据权利要求4所述的一种基于深度 学习的6D姿态估计方法, 其特征在于, 所述步骤 S4中, 将目标物体的无标记码图像和表面稠密点云数据输入到预设的点云补全神经网络模 型中, 获得目标物体的表面完整点云数据的具体方法为: S4.1: 将任意一张目标物体的无标记码图像和表面稠密点云数据输入到预设的点云补 全神经网络模型中, 对表面稠密点云数据进行旋转操作, 调整至与所述 目标物体的无标记 码图像对应的相机姿态相匹配, 得到目标物体稠密点云旋转数据P1; S4.2: 将目标物体的无 标记码图像进行映射, 得到目标物体的全局稠密点云数据P2; S4.3: 将目标物体稠密点云旋转数据P1和全局稠密点云数据P2拼接后进行均匀下采样; S4.4: 利用下采样后的全局稠密点云数据P2减去下采样后的目标物体稠密点云旋转数 据P1, 得到输入部分点云数据Pf和输入缺少部分点云数据Pc; S4.5: 将输入部分点云数据Pf、 输入缺少部分点云数据Pc、 下采样后的目标物体稠密点 云旋转数据P1和目标物体的无 标记码图像拼接获得全局特 征向量Vt; S4.6: 利用全局特征向量Vt获得目标物 体的表面点 云偏移量向量, 将输入缺少部分点 云权 利 要 求 书 1/3 页 2 CN 115457128 A 2数据Pc与目标物体的表面 点云偏移量向量 拼接, 获得目标物体表面完整点云数据P3。 6.根据权利要求5所述的一种基于深度 学习的6D姿态估计方法, 其特征在于, 所述步骤 S4.6中, 利用全局 特征向量Vt获得目标物体的表面点云偏移量向量, 将输入缺少部分点云 数据Pc与目标物体的表面点云偏移量向量拼接, 获得目标物体表面完整点云数据P3的具体 方法为: 将全局特征向量Vt输入预设的1D卷积层中, 得到N维嵌入fpoint, 再将N维嵌入fpoint 复制展平之后上采样, 接着 输入预设的2D卷积层中, 得到偏移 点向量, 之后将偏移 点向量输 入所述1D卷积层中, 得到目标物体的表面点云偏移量向量以及对应的不完整点云的掩模, 将经过不完整点云的掩模选择过的输入缺少部分点云数据Pc与目标物体的表面点云偏移 量向量拼接, 获得目标物体表面完整点云数据P3。 7.根据权利要求6所述的一种基于深度 学习的6D姿态估计方法, 其特征在于, 所述步骤 S4之后还 包括: 利用基于最优传输理论的距离优化损失函数对所述预设的点云补全神经网络模型进 行优化, 所述损失函数为: Lall=α LCD+β LEMD 其中, LCD为第一损失函数, LEMD为第二损失函数, Lall为总损失函数, P3为由点云补全神 经网络模型输出的目标物体表面完整点云数据, P2为目标物体的全局稠密点云数据, 表示 P3与P2点云数据之间的对应关系, α和β 为第一、 第二超参数, p3是目标物体表面完整点云数 据P3中的点, p2是目标物体的全局稠密点云数据中的点。 8.根据权利要求7所述的一种基于深度 学习的6D姿态估计方法, 其特征在于, 所述步骤 S5中, 将目标物体的3D模型、 表面完整点云数据和目标物体的无标记码图像输入到预设的 6D姿态估计神经网络模型中进行训练, 获得优化后的6D姿态估计神经网络模型, 具体方法 为: 将目标物体的3D模型、 表面完整点云数据和目标物体的无标记码图像输入到预设的6D 姿态估计神经网络模型中, 所述预设的6D姿态估计神经网络模型包括编码模块、 解码模块 和数据整合模块; 将目标物体的无 标记码图像输入编码模块进行编码, 获得编码后的2D图像; 之后将编码后的2D图像送入解码模块进行解码, 所述解码模块包括旋转预测头和平移 预测头; 所述旋转预测头根据编码后的2D图像输出目标物体的2D点云数据和置信度图; 利用目 标物体的置信度图和RANSAC  PnP算法, 将目标物体的表 面完整点云数据与目标物体的2D点 云数据进行匹配, 获得 预测的目标物体旋转矩阵; 所述平移预测头根据编码后的2D图像输出目标物体的热力图数据、 初始坐标数据和深 度图数据, 根据目标物体的热力图数据和初始坐标数据获得目标物体的最终坐标数据, 将权 利 要 求 书 2/3 页 3 CN 115457128 A 3

.PDF文档 专利 一种基于深度学习的6D姿态估计方法和系统

文档预览
中文文档 19 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共19页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于深度学习的6D姿态估计方法和系统 第 1 页 专利 一种基于深度学习的6D姿态估计方法和系统 第 2 页 专利 一种基于深度学习的6D姿态估计方法和系统 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 12:02:04上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。