实验要在HoloLens 2上做仿真,HoloLens的SLAM做得很好,它的SLAM过程中是没有用深度相机的,完全依靠左右两侧的4个鱼眼相机,深度相机只在场景建模时候用。HoloLens和人眼的解决方案一样,分两个阶段,先是把场景里3D点的位置确定出来,后面的跟踪就只用特征点的图像坐标和IMU来处理。HoloLens 2研究者模式可以访问深度摄像头、灰度摄像头和IMU上的原始流数据。

在GitHub官方例程下载数据
Docs是指南,Samples是代码示例
HoloLens2ForCV-main -> Samples -> SensorVisualization找到SensorVisualization.sln文件,选择 Debug模式和ARM64的架构,然后生成(Build)


在HoloLens 2上启动 SensorVisualization 应用,显示可视化传感器

这个示例是一个全息UWP应用程序,演示了在设备上实时可视化传感器流。它显示了来自两个前头部跟踪摄像头的帧的可视化,深度和AB帧的深度摄像头,以及IMU加速度的可视化为3d坐标系的长度。