Magic Leap终于向我们演示了通过Magic Leap One的AR.docVIP

Magic Leap终于向我们演示了通过Magic Leap One的AR.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Magic Leap终于向我们演示了通过Magic Leap One的AR

Magic Leap终于向我们演示了通过Magic Leap One的AR   Magic Leap在Twitch上的几次直播演示可以说都在画饼,对于实机以及操作并没有进行深入的讲解,这也让大家对于它如何运作充满了各种假设以及好奇心。   在前几天,也就是6月21日的Unite Berlin大会上,Magic Leap讲解了如何开发Magic Leap One,在其中包含了诸多Magic Leap One工作及运行的细节,那就让我们一起来看看吧。最关键的是,Magic Leap终于向我们演示了通过Magic Leap One的AR。   首先他们提出的是通过他们的技术,Magic Leap One的AR会真实的融入到环境当中去,可以让用户和平时一样观看,而不是与现在的AR眼镜一样叠加在视野的上方。不过他们并没有讲解他们用的是什么技术,就当成他们画的另外一张大饼算了。      不过得到了一张饼也要失去一张饼,这就是大饼守恒定律。   Magic Leap交互实验室的负责人Schwab表示,Magic Leap One的视场是有限的,并没有此前宣称的那么神奇。不过他也没有具体说明有限到多少,而是告诉开发者再知道Magic Leap One有限的视场后如何改变他们的开发思路。   Schwab提出了四个观点他认为开发者应该注意的,分别为“Less is More”、“Respect The Real World”、“Getting your Attention”、“Reality Considerations”。      “少即是多”用在这里实在是太取巧了,Schwab提出的这三点其实都很中肯。在AR体验当中,应当以让用户体验到虚拟与现实之间的融合,将AR作为现实世界的延伸,而在视场中过多的填充就会造成反效果。   不过考虑到这是对于MLO有限的视场而做出的策略改变,只能拍着手说有道理了。      这条也是对于“少即是多”的阐述,Schwab做了一个比喻,AR就好比现实世界中的客人,主角任然是现实世界,AR不能喧宾夺主,可以使用更多的线索引导用户。   不过对于有限的视场也可以用其他方法补救。通过眼动追踪我们可以知道用户正在看什么,当用户视线不在目标上的时候,我们可以通过空间化音频或者是外围视场中的运动来引导用户的视线。      在设计的同时,也要考虑到用户的安全。比如你正在走一个下坡路,而AR信息在上方,这就很容易造成事故。而且在沉浸感强烈的情境下,人们的听觉会下降,甚至什么都听不到,这将会造成十分严重的结果,这也是Schwab提醒开发者需要十分注意的事情。      在用户数据方面,MLO会从五方面进行收集。分别是头部姿势、双手、双眼、语音还有地理/临时信息。      头部姿势能够搜集不仅能分析摇头和点头和其他的头部运动,还能检测心跳、步姿和你走路的速度等。   对于眼睛的眼动追踪和语音命令这两个功能,除了本职工作以外,还能够通过眼睛的形态和声调的高低大小来判断用户的情绪。   通过眼睛收集的信息主要来自于眼睛停止转动的时刻,我们的眼睛一直在不断地转动(这期间的速度很快,几乎采集不到什么信息),如果它没动说明我们正在经历某些事情。这时就会采用到心理学的知识,比如眼睛向下看说明在思考,向左上方看时在思考。   最令人意外的还是第一次被透露的地理信息和临时信息的收集,通过收集用户之间交互的地理信息与临时信息来分析趋势,来为用户判断更好的选择。不过如何运行这项功能,并未透露。   至于手部姿势,MLO可以识别八种手势,如下图所示。      在识别手势时,将会先由头部姿势判断,然后开启深度摄像头扫描近场来识别手势,能够同时识别双手的手势。在手势识别的时候,会有八个点跟踪,这将会把八个特定的手势和平常的手势区分开来。   说到这里就要谈一下MLO的交互模式了。MLO对于指令的输入是对综合头部、眼动追踪、手势信息进行的综合,将头部姿势与视线还有手势相结合。      比如眼前有三个方块,通过头部姿势和眼动追踪能够知道你正在看的是哪一个方块,然后再识别手势例如Thumb就能够选中那个方块了,也就是说能够预判用户的选择。      通过之前所讲对于用户心理的分析,MLO可以判断用户是有目的的选择,而不是随便瞎选,从而达到准确的预判。   这种操作设置其实也比较符合人本身的运动规律,在同一时间是多个器官同时运作的。   而与之配套的,Magic Leap开发了一套多式交互模型——TAMDI。      代表着五个步骤,分别为Targeting(目标)、Activation(获取)、Manipulation(操纵)、Deactivation(失活)、Integration(整合),五个步骤构成一个循环过程,对头、眼、手三个部位的信息进行

您可能关注的文档

文档评论(0)

woai118doc + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档