[译文]Google VR Apps 设计规范——控制器规范

Daydream Suit.png

本文是由BlinkQ翻译的Google官方文档:Google VR 应用发布规范 之 设计规范 之 控制器规范(原文地址:https://developers.google.com/vr/distribute/daydream/design-requirements)。
Google Pixel 和 Daydream View的发布让我们看到Google开始了Apple式的软硬件结合(还包含智能家居套件和物联网标准,有空讨论),Daydream标准也有望成继Cardboard之后真正将VR带给普通消费者的技术。

如题图所示,Daydream View(Google VR头显)上并没有按键或任何输入设备,一切用户操作全靠那个小巧的手柄:Daydream Controller。任何Google VR Apps必然用到控制器,本文通过翻译来为你讲解Google的控制器规范和交互理念:

以下是译文:

UX-C1: 控制器作为激光指针来点击UI元素

Laser Pointer.png

当你的Apps需要提供2D UI界面/面板浮动在虚拟世界中的用户面前让用户点击选择时,你需要让Daydream 控制器成为一个「激光指针鼠标」,以方便用户在这些UI控件上交互,例如菜单界面、列表页面、暂停窗口等。
当然,一些游戏可以不受这个标准影响,游戏中也可以使用头部凝视进行交互(Cardboard或GearVR那种头控锚点——译者注)。

注:我们(Google VR)不拒绝开发者在应用中加入附加的控制设备,如游戏手柄,毕竟这样可能更有游戏性,但是所有Apps在只有Daydream 控制器时也要能正常使用。

当应用与UI元素交互时,以下几个特性必须在各个应用间保持一致:

  • 使用手臂模式(arm model)。
  • 使激光射线比真实角度低15度【你只用知道这是人家一群牛人研究很久的结果就对了——译者注】。
  • 在虚拟场景中显示虚拟的控制器(推荐,不强制)。
  • 在虚拟场景中能看到激光射线(推荐,不强制)。

使用手臂模式(arm model)

注意,手臂模式专门针对通用界面指向交互而设计(不适合游戏中的投掷或击打),并且方便用户观察控制器上各个按键的状态。

Arm Model.png

【从图上看,肩膀与大手臂是固定的,也是自然垂下的,能动的只是前臂和手腕部分,所以更适合界面操作,而不适用于所有游戏。官方DEMO也证实了这点。——译者注】

将激光射线降低15度

系统界面与Apps都要遵守这个规范,非常重要!这样用户在各种应用中的体验是一致的,可以形成「肌肉记忆」,以免神经错乱。

在虚拟场景中渲染手柄(推荐,不强制)

Render the controller.png

我们强烈建议你在UI元素交互界面中直接使用我们辛苦研发大半年的 Daydream 控制器 3D模型,它的好处可多了:

  • 将现实元素带入VR将大大增加临场感。
  • 可对控制器上的各按钮或工具进行说明。
  • 可提示用户当前哪些按钮是可用的(例如不可用的置灰,可用的高亮)。
  • 可提供控制器上各按钮是否按下的视觉反馈。
  • 提高应用与Daydream平台的一致性,减少用户学习成本。

显示激光射线(推荐,不强制)

射线可见

射线隐藏(实际上有射线),只显示锚点

激光射线可见的好处是:

  • 快速发现锚点。
  • 最直观的方式表达用户手部动作对射线角度形成的影响。
  • 实时反馈。
  • 从其他交互方式(如驾驶、飞行、砍)切换到射线交互方式时给出提示。

译文完

文| BlinkQ

关键字:产品设计, 产品经理, daydream

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部