本文是另一篇北京大学陈宝权课题组将在SIGGRAPH 2019宣读的论文的解读。
该论文题为《Multi-Robot Collaborative Dense Scene Reconstruction》,由北京大学客座学生董思言、周强与国防科技大学徐凯副教授,以及谷歌和慕尼黑工业大学等单位学者合作,由前沿计算研究中心执行主任陈宝权教授指导完成。
背景
从机器人领域的移动导航、动作规划和物体抓取等经典问题,到虚拟现实、增强现实和混合现实等图形技术,都离不开对真实场景的三维建模。随着近几年以微软Kinect、英特尔RealSense等为代表的消费级RGB-D相机的普及,三维重建领域正经历着一场“文艺复兴”。三维重建涉及计算机图形学、计算机视觉和机器人等多个领域,旨在采集真实世界中的彩色图像和深度图像,并以此重建出真实场景的三维模型。相比于传统的激光或雷达扫描重建,近几年RGB-D相机扫描(拍照)的重建算法(如KinectFusion、VoxelHashing)近几年取得了巨大进展。
相关工作
陈宝权老师带领的Visual Computing and Learning 课题组近几年发表了一些使用机器人做主动式扫描和建模的工作。主动式扫描的现有工作在对于单个物体、房间或公寓等场景的扫描都取得了不错的效果。于是,使用更多机器人进行大规模场景的扫描重建是一个重要的拓展方向。
我们的方法
以室内大规模场景的扫描和重建为目标,我们提出了基于最优质量传输理论(Optimal Mass Transport)的多机器人协同探索并重建未知室内场景模型的算法。最优质量传输理论其实大家都不陌生,最经典的例子是土豆的供给和需求问题,假设有若干地区(下图蓝色)供给土豆,若干地区(下图桔色)需求土豆,不同地区直接运输土豆的代价不同, 那么如何找出这样一个规划,使得所有需求地区都能得到满足其需求的土豆数量,且总的运输代价最低,这就是一个简单的最优质量传输模型。
我们在模拟器中使用Matterport3D与SUNCG数据集对算法进行了测试,取得了不错的效果。
我们提出了一种多个机器人协同扫描的理论和算法。基于最优质量传输理论,使用分而治之的策略,驱动多个机器人高效地探索扫描室内大规模场景,并重建其三维模型。
关于SIGGRAPH
SIGGRAPH (Special Interest Group on Computer GRAPHics and Interactive Techniques) 是计算机领域规模最大的顶级会议、CCF A类会议,参加人数达2万余人,每年收录百余篇图形学相关的优秀论文,是计算机图形领域集技术、艺术与展览于一体的盛会。SIGGRAPH 2019将于2019年7月28日-8月1日在美国洛杉矶举行。
图文 | 董思言
Visual Computing and Learning