LIVE 预告 | 牛津胡庆拥:学习理解大规模点云
发布日期:2021-05-15 05:08:53 浏览次数:11 分类:精选文章

本文共 925 字,大约阅读时间需要 3 分钟。

大场景三维点云处理与语义理解技术报告

作为一名来自牛津大学计算机系的博士研究生,我非常荣幸能够分享我在大场景三维点云处理领域的研究进展。本次报告将围绕点云数据的语义理解与配准技术展开,重点介绍我们团队近年来在CVPR等顶级会议上发表的几项核心成果,包括RandLA-Net、SensatUrban和SpinNet。

讲者介绍

我的研究方向聚焦于大场景点云的处理,主要探索语义分割、实例分割及点云配准算法。我深受OX811407Niki Trigoni和Andrew Markham教授的指导,对于如何在复杂无规则的三维场景中高效提取有用信息充满兴趣。

议题概述

三维世界的智能理解一直是计算机视觉领域的重要课题。随着激光雷达、深度相机和三维扫描仪的普及,点云数据日益丰富。然而,大规模点云数据的不可预测性(分布不规则、密度波动大)以及排列无序的特性,使得高效处理面临巨大挑战。本次分享将重点探讨如何在这些挑战中提升点云数据的语义理解能力。

研究成果

我们的工作始终致力于开发适用于大场景点云的高效算法。RandLA-Net(CVPR’2020)首次提出了基于局部几何特征的上采样方法,有效解决了点云数据稀疏化的问题。SensatUrban(CVPR’2021)则专注于城市环境中的语义分类,提出了多尺度特征融合策略。SpinNet(CVPR’2021)则突破了点云配准难题,提出了一种基于相互补充的点特征学习框架。

参会方式

本次会议将采用线上形式,观众可通过以下方式报名:

  • B站直播: https://live.bilibili.com/21484823
  • Zoom会议: https://zoom.com.cn/j/6011507040(无需密码)
  • 智源Hub: https://hub.baai.ac.cn/activity/details/147

请提前在社区Hub中使用格式为“姓名+学校/公司+研究方向/职位”进行报名,以获取直播地址及相关内容。

如需进一步了解我们的研究成果,可访问我们的公开资源页面或关注我们的社交媒体账号。


本次报告不仅总结了我们在大场景点云处理领域的最新进展,也希望能为同行提供新的研究思路。期待与大家的讨论和交流!

上一篇:LIVE 预告 | CVPR 2021 预讲 · 旷视专场,覆盖目标检测、蒸馏、图像降噪、人体姿态估计等...
下一篇:对抗攻击层出不穷?神经科学带来新突破、导出智能统一框架,Hinton:我早有洞见...

发表评论

最新留言

哈哈,博客排版真的漂亮呢~
[***.90.31.176]2025年04月21日 07时23分27秒