您当前的位置:365bet > 技术探讨 >

这张照片是透过ML1进行拍摄

发布时间:2018-10-11 19:31编辑:admin1阅读(

      在上一篇“最硬核体验与技术分析,深度对比Magic Leap One和HoloLens”文章中,AR硬件/软件企业Rave的首席科学家Karl Guttag向我们对比分析了透过Magic Leap One(ML1)和HoloLens所看到的真实世界视图。对于今天的文章,他将探讨ML1的图像问题。以下是小编的具体整理:

      左上方是原始测试图的裁剪图,与透过ML1拍摄的相同部分图片相比缩放了200%。包含各种特征的测试图是判断不同图像质量方面的一种困难但公平的方式。一像素和两像素宽特征用于测试显示器的分辨率。相关图片拍摄方式的其他信息请参照文章末尾。

      大多数Magic Leap的演示内容都包含色彩鲜艳但体积较小的对象,其既可以作为“视觉糖果(华而不实)”,也可以隐藏视场所缺乏的色彩均匀性。在测试图中采用具有肤色的面部是因为人类对皮肤的颜色更为敏感。测试图提供了一个大大的实心白色对象以帮助识别任何色移。

      我使用Helio浏览器来显示图像,一些图像分辨率问题可能与Helio浏览器在3D空间中缩放图像的方式有关。我尝试拍摄测试图并在ML1图库中显示它们,但结果不是十分优秀。我用Hololens浏览器浏览了相同的测试图,而后者明显比ML1更清晰。有时候我们需要回过头来,并区分浏览器缩放问题与光学问题,但再次说明,这就是ML1正常显示二维影像的方式。

      我仔细端详了两台ML1的内容,但它们都没有提供锐利的图像,所以我认为它们在相当程度上代表了ML1的图像质量。即使ML1上的缩放引擎不是十分优秀,由光学元件引起的炫光和色差程度也表明ML1光学元件的分辨率比较低。

      我只测试了“远焦”模式(约36英寸远),因为测试近深平面聚焦模式非常困难。我感觉近焦平面比远焦平面更锐利,而Magic Leap专利申请中的图表同样说明了这一点(见下图)。远焦平面穿过近焦平面出射光栅并到达眼睛,这可能是问题的一部分原因。我本来也想测试近焦平面,但没有办法缩放测试图,我也不知道如何将头显维持在近焦“模式”。

      下图是透过ML1的右眼光学元件拍摄。老实说,特写图像可以显示你一般不会注意到的问题。

      通常来说,由于光学器件的缺陷,投影图像看起来不如直视显示,但对于ML1而言,衍射波导似乎限制了分辨率。

      尽管就如何“看到”图像方面人眼与相机之间存在差异,但它仍然可以很好地说明眼睛所看到的内容。相机是“客观/绝对的”方式,而人类视觉系统则对亮度和颜色等事物更为主观/自适应和敏感。人眼可以看到图片中的伪影和其他问题。

      总体而言,图像中心的色彩平衡很好。你会注意到测试图中的两个面部肤色发生了色移,但在图像外围15%之前都不太明显。

      柔和/模糊图像:你可以在文本和单像素和双像素宽的测试图中看到这一点。尽管这种柔和可能是由于缩放算法造成,但图像整体相当模糊。尽管ML1成像器声称的分辨率是1280×960,但有效分辨率在两个方向都只有大约一半,或者说视场中心更接近640×480,而周边则更低。

      波导发光(失焦反射):尽管波导发光在大型明亮对象周围最明显(如测试图中的圆形和方形),但它同时会降低对比度,从而影响细节的有效分辨率,如文本。

      视场中的色波随头部和眼睛移动而移动(请参见黑白矩形图),视场中的颜色一致性相对较差,这与我迄今为止见过的所有衍射波导都一致。

      蓝绿色和蓝色在图像的左侧和右侧偏移,再次说明,这是衍射波导的常见问题。对于右眼,365bet左侧的红色不足,右侧则缺少绿色和红色(带蓝色);左眼则相反。

      当你远离视场中心时,亮度会下降。这个问题对大多数基于投影的显示设备而言都十分常见。在这方面上,ML1似乎比Hololens更好。

      双目重叠视差:这是立体视场头显的和小视场的常见问题。随着图像填充视场,每只眼睛都看到大致相同的图像,但存在一定的漂移。当你用双眼浏览图像时,左眼图像会在右侧出现截断,反之亦然。你在每一侧都会看到黑暗区域。对于看起来大约4英尺远的图像,我已经用橙色虚线进行了标示。解决这个问题将进一步降低视场,因为他们必须在“保留区”维持相当大比例的视场。

      裁剪视场以支持内瞳距调整:基于全尺寸的测试图显示方式,我认为他们保留了大约130个水平像素(约为1280个水平像素的10%)以支持电子IPD调整(注意,这是一个非常间接的测量,可能不准确,因为我无法控制源图像)。Hololens似乎为同一功能保留了相似数量的像素。

      9。衍射波导正在捕捉来自现实世界的光线,这导致颜色出现“炫光”:我在之前的文章中已经提到这一点。

      为了看到更多的细节,相机在拍摄左边图片时拉近了两倍以上,从而提供5个以上相机样例/ML1像素。下图iPhone部分进行了复制和平移,从而帮助更好地与ML1文本进行对比。iPhone拍摄图像显示了ML1能够解释图像时的应有文本样式。ML1的文本更稳柔和模糊。ML1的影像锐利度不如HoloLens,甚至不及Lumus的波导。你很难看清一像素点和45度线。 总结

      根据以往对其他衍射波导的经验,我本来预料设备会出现颜色不一致和图像炫光问题。但是,ML1视场中心的颜色相当不错。

      但我无法甩掉柔和/模糊文本。我最初是在《Dr.Grordbort’s Invaders》影像的文本中注意到这一点,而这正是我对ML1进行测试的原因。我暂时不确定这在多大程度上与双焦平面有关,但我认为这正是ML1比HoloLens更模糊的原因。

      在未来,我希望能够绕过3D缩放并直接驱动显示器,以更好地隔离光学与缩放问题。我同时十分好奇是否能将设备锁定在“近焦平面模式”并独立测试这个模式。在测试ML1时,当我将目光从ML1上移开后,它马上又会切换回远焦平面模式(这就是为什么我没有在近焦平面模式下进行测试的原因)。

      我使用的是Olympus OM-D E-M10 Mark III无反光镜相机。我是因为其尺寸及功能才特意选择了这款相机。从镜头中心到相机底部的距离小于从眼睛瞳孔到头部的距离,这样它就可以放置在一台刚性头显之内,其中镜头位于原本瞳孔的位置。在人像模式下,它具有3456像素宽,4608像素高,这是ML1 1280×960像素的两个相机样例以上/像素。相机搭载5轴光学防抖功能,而这非常有助于拍摄手持拍摄。

      ML1的“远焦点”大约是5英尺远(约1.5米)。我在这个网站上放置了一张测试图,并使用ML1的Helio浏览器调出图像。然后我来回移动ML1头显,直到测试图填满了虚拟图像位于大约4英尺时的视图。

      上图显示了从某个角度观看时的iPhone设置。它可以让你了解虚拟影像相对于手机的位置。这张照片是透过ML1进行拍摄,只是后面添加了红色注释。

      我从其他实验了解到,ML1的“远焦点”大约是5英尺远。我将iPhone 6s放在侧视图的一个“孔洞”中。为了令手机与虚拟影像同时对焦,我将手机放在背后,并且将其位置调整至相机能够对焦手机和ML1影像的位置。我然后缩放了iPhone的显示屏,令ML1看到与ML1相同的文本大小。通过这样的方式,我可以说明干分辨率测试图下的文本应该是什么样子,而它验证了相机能够解析测试图中的单个像素。

      iPhone的亮度设置为450 cd/m2(白天全亮度),这样在减少85%之后仍然能够看到,因此网格仅约70 cd/m2。我是以RAW格式拍摄照片,然后基于ML1图像中心的白色进行白平衡,这使得iPhone的显示屏看起来有点偏向绿色。照片是在1/25秒拍摄,以平均任何场序效应。

      作为参考,下图是ML1在大约相同位置的透视拍摄。对于透视拍摄,ML1的摄像头和测试图的曝光可以单独设置。在这张图片中,ML1的摄像头似乎专注于远景,这会令iPhone失焦,但你可以感受到iPhone的亮度。

      透视图像偏向于白色而不是黑色。365bet请留意“Arial 16 point”下的一像素宽特征,黑色的一像素点和线几乎全部丢失,即使左边两像素宽的像素也几乎消失。