小优智能科技有限公司成立于2015年底,是一家专注于高精度3D机器视觉模组研发、生产及销售的高科技企业。
公司自主研发的3D机器视觉模组采用激光/DLP白光编码光栅结构光+双工业相机方案,还原物体三维信息,广泛应用于消费电子领域、工业领域和安防领域,具有精度高、速度快、成本低的优势。
近年来,三维数据测量技术的发展和相关坐标测量设备的逐渐普及,使得三维数据的获取越来越便捷。三维数据测量技术作为三维重建技术中的重要组成部分,目前常见的三维数据测量方式分为接触式和非接触式两大类[1-4]。
接触式方法是利用某些仪器通过实际接触直接测量场景的三维数据,典型代表是三坐标测量机(简称CMM),在工业测量领域中用来测量某些小体积重要零部件[5]。在生产制造过程中,用三坐标测量机对机械配件和模具进行测量和获得尺寸数据是最有效的方法之一,因为它可以代替多种表面测量工具及昂贵的组合量规,并把复杂的测量任务所需时间从小时减到分钟,这是其它仪器而达不到的效果。接触式方法所得数据精度较高,受环境因素影响小,但成本高昂,只适用于表面标准几何尺寸较多的物体,在待测物体曲面比较复杂、物体表面柔软易变形和物体表面几何尺寸较少等场合的应用受到一定限制。更重要的是,使用接触式测量法获得物体的大量三维点云数据非常困难。
非接触式方法与接触式方法不同,非接触式方法是在测量时不接触被测量的物体,与其保持一定距离,通过光、声音、磁场等媒介来获取目标数据[6]。该方法对目标物体和测量环境要求低,虽然测量精度比接触式测量法低,但随着科学技术的发展,非接触方法的测量精度有了较大的提高。在目前的三维重建领域中,非接触式测量法相比接触式测量方法应用领域更加广泛。
非接触式根据扫描方式不同又分为主动扫描和被动扫描,如图2所示,主动扫描常见有三维激光扫描技术[7]、TOF(Time-of-Flight)相机[8]、结构光系统[9]等。
三维激光扫描技术又被称为实景复制技术,对待测物体或场景发出激光点或线性激光束,通过光电元件接收待测物反射的光线,计时器测定激光束从发射到接收的时间,以此计算出待测物体到设备之间的距离。这种方法在于可得到较准确的深度信息,并且可记录大量的、密集的点的坐标,缺点是价格高昂以及数据信息量大。Omari等人[10]提出了将三维激光扫描技术应用于建筑项目中进度报告的生成,在不同时间通过三维激光扫描仪扫描建筑工地生成数据,然后将其用于估计两次连续扫描的时间间隔之内执行的工作量,以此提高从建筑工地收集数据的速度和准确性。Ghahremani等人[11]提出了一种借助手持式三维激光扫描仪获取点云来保证高频机械冲击处理质量的方法,该方法对五个焊接式样进行了不同程度的冲击处理然后使用手持式三维激光扫描仪扫描焊口的点云数据,通过测量点云几何参数确定不同的冲击处理。
TOF相机利用经过调制的近红外光探测目标物,传感器计算光线往返所需时间换算出物体与设备之间的距离而获取深度信息,结合传统的相机拍摄,就能将物体的三维轮廓以不同的颜色代表不同的距离表示出来。这种方法可以快速简便得到深度数据,不需多余的辅助扫描设备,缺点是价格相比普通相机仍然偏高,测量结果受被测物性质影响,系统误差及随机误差对结果影响明显。Heide等人[12]将场景重建公式变为场景的瞬态响应上的线性逆问题,从二阶漫反射中恢复了视线之外的物体,利用TOF相机获取场景信息,从而有效地重建了大型房间场景。Koutsoudis等人[13]利用TOF相机对希腊克桑西地区的奥斯曼帝国纪念碑进行三维重建,通过对纪念碑完整三维模型的数字分析,质疑了运动结构-密集多视图3D重建(简称SFM-DMVR)方法的适用性。
结构光是一组由投影仪和摄像头组成的系统结构,用投影仪投射特定的光信息到物体表面后及背景后,由摄像头采集。根据物体造成的光信号的变化来计算物体的位置和深度等信息,进而复原整个三维空间[14]。结构光系统的优点在于获取图像数据的质量较好,但需要多个摄像头进行协调配合工作,且受光照条件影响较大,对系统要求较高。Deetjen等人[ 15]提出了一种新的针对相机-投影仪这类结构光系统的自动校对方法,该方法通过自动图像处理和捆绑调整参数优化实现校准,可以应用在质量控制,自主系统,工程测量和运动捕捉等领域。Heist等人[16]提出了一种“5D传感器”,该传感器通过结构光快速准确的测量表面形状和光谱特性,该传感器提供了出色的空间和光谱分辨率,出色的深度精度和高帧频,可以应用在医学成像,精密农业或光学分拣等领域。表1对常见扫描方法做出了对比。
Reference:
[1] 王亚琪. 基于Kinect的轴类零件三维重建关键技术研究[D].青岛理工大学, 2015.
[2] Otto K N. Product design: techniques in reverse engineering and new product development[M]. 清华大学出版社有限公司, 2003.
[3] 王亚琪, 陈成军, 李希彬. 基于Kinect的轴类零件三维重建研究[J]. 计算技术与自动化, 2015(4): 126-131.
[4] 徐超, 李乔. 基于计算机视觉的三维重建技术综述[J]. 数字技术与应用, 2017, 28(1): 54-56.
[5] 韦羽棉. 基于Kinect深度图像的三维重建研究[D]. 重庆大学, 2014.
[6] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets[J]. Neural computation, 2006, 18(7): 1527-1554.
[7] Michalos G, Karagiannis P, Makris S, et al. Augmented reality (AR) applications for supporting human-robot interactive cooperation[J]. Procedia CIRP, 2016, 41: 370-375.
[8] Chen P, Peng Z, Li D, et al. An improved augmented reality system based on and AR[J]. Journal of Visual Communication and Image Representation, 2015, 37:63-69.
[9] Henderson S, Feiner S. Exploring the benefits of augmented reality documentation for maintenance and repair[J]. IEEE Transactions on Visualization and Computer Graphics, 2011, 17(10): 1355-1368.
[10] El-Omari S, Moselhi O. Integrating 3D laser scanning and photogrammetry for progress measurement of construction work[J]. Automation in Construction, 2008, 18(1): 1-9.
[11] Ghahremani K, Safa M, Yeung J, et al. Quality assurance for high-frequency mechanical impact (HFMI) treatment of welds using handheld 3D laser scanning technology[J]. Welding in the World, 2015, 59(3): 391-400.
[12] Heide F, Xiao L, Heidrich W, et al. Diffuse mirrors: 3D reconstruction from diffuse indirect illumination using inexpensive Time-of-Flight sensors[C]. IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2014: 3222-3229.
[13] Koutsoudis A, Vidmar B, Ioannakis G, et al. Multi-image 3D reconstruction data evaluation[J]. Journal of Cultural Heritage, 2014, 15(1):73-79.
[14] Morgan W D, Lester H M. Stereo realist manual[M]. 1954.
[15] Deetjen M E, Lentink D. Automated calibration of multi-camera-projector structured light systems for volumetric high-speed 3D surface reconstructions[J]. Optics express, 2018, 26(25): 33278-33304.
[16] Heist S, Zhang C, Reichwald K, et al. 5D hyperspectral imaging: fast and accurate measurement of surface shape and spectral characteristics using structured light[J]. Optics express, 2018, 26(18): 23366-23379.