NLUI、CUI 等界面设计新形式,可行吗?

NUI、NLUI、CUI这些名词,在智能车机兴起时就已出现,只是近两年跟随GPTs再次涌现,先说结论:

  1. CUI是GUI向NUI转变中的过渡产物,存在于特定时期,至于多长还不明确,参考混动汽车;
  2. NUI无法完全取代全部GUI场景;

下面我们就详细展开说说。

一、这些词都什么意思?

NUI,更自然的用户交互设计,广义上,从iPhone4兴起的多点触屏交互开始,自然交互被逐步重视,小孩子不用学就能上手的iPad各类应用,足以说明“自然”的重要性和检验标准;除了手势交互,NUI还考虑对话、体感等多种形式的交互,总之围绕“更易学习、更易上手的直觉感受”来设计。

NLUI,全称就已经限定了自然语言交互,从天猫精灵到小度,红极一时很快被GPTs淹没。但是这种自然对话模式的交互具有极强的生命力。毕竟,人机交互的本质是人机沟通,自然免不了对话。

CUI,狭义来说,就是通过标准指令达成目的,就像你对女朋友的诉求表达一样渴求“简洁明了,直白清晰”。每一次人机交互伴随着若干个明确的目的,达成目的即结束,不达目的就再次修正或重复指令。意图清晰直观,机器返回结果也继承了原有系统的交互方式。广义上,GUI的菜单式、命令行、快捷键都可以归为指令式。区别就是指令框是否足够规范、清晰和可控。

二、相互关系

下面来说说这几个概念的相互关系。

一句话总结,NUI是一个更大的概念,NLUI是NUI的子集。

CUI不同于前面两者,是另一个维度的概念,广义上涵盖了语音交互、GUI界面操作,狭义上特指清晰明确的指令交互。

NUI是描述人机交互的体验感受维度,相反的是反人类的、灭绝人性的、变态交互方式。更自然的交互方式,不是实现好体验的唯一方法,但绝对是捷径。也可以理解为,NUI是当下体验设计力求要达到的境界。

NLUI是NUI的一个子领域,自然语言交互,自然触摸交互等等,NXUI可以任意发挥余热!也是一个更聚焦更专业的细分方向,之所以其他NXUI听到的少,主要以下两点:

  1. 语言作为最最基础的沟通方式,门槛低、应用广;
  2. GPTs兴起,再次带火了chat类的对话交互;

CUI是另一个维度的存在,描述了交互的方式。通过指令交互、眼动跟踪、脑机接口、手势识别等,都是不同的交互方式。

如果从交互方式上来说,CUI和NLUI是两种不同的交互方式,但又存在交集:NLCUI,自然语言也可以是指令式的,只不过这种指令是DSL还是人人尽知的文字。

如果从自然语言交互的狭义定义上来说,CUI和NLUI是同类,仅存query标准程度、指令清晰度等差异,CUI也可以是自然语言式的指令,两者界限模糊。比如,hi,siri/小度小度/天猫精灵/小爱同学,算是标准指令还是自然语言?

三、CUI存在的必要性

因为更聚焦于规范、标准、有意义的指令,自然语言场景下的CUI将用户对话内容、模型能力、产品功能都限定在可控的范围内,使得CUI操控软件界面变得更具可行性。

比如,你可以向ChatGPT发起任意会话,都能获得不太差的回答。而产品/软件界面的人机交互,往往受限于功能,无法对你的所有提问给予响应;这时候,我们就需要约束用户的提问范围,甚至是提问格式。

CUI就此确立了它过渡时期的存在价值。所谓过度时期:旧软件产品架构上,叠加了代表最新生产力的LLM。就像电机拉马车,车架得改造,不抗造。

CUI当下能解决什么问题?这需要我们聚焦GUI目前的痛点:流程复杂、界面繁复、使用门槛、研发成本等等。同时,还需要思考LLM的优势:人类无法企及的速读和理解能力、文本/图片总结和归纳能力等等。

列举更易理解的例子,CUI适合当前什么样的用户使用场景?列举两个例子:

  1. 利用LLM优秀的NLP能力,改造传统关键词搜索。过往软件产品中,错一个字就无法查找的情况,在LLM加持下,让这种“模糊搜索“或”语义匹配“更加聪明和准确,不再依赖模糊词映射库,检索成功率更高;
  2. 利用LLM优秀的阅读与总结能力,实现AI摘要、文本问答,在长文阅读、速览等场景下提供参考信息;

后续的文章中,我们会陆续探讨细分行业下更多的融合场景。

既然CUI是过渡时期产物,那么,什么时候结束呢?准确时间无法预估,但是这一产品形态消亡,必然伴随着相关的信号:

1、产品形态的彻底变革

打破现有的软件/网页/APP等产品形态:

1.1 产品以信息和反馈呈现为主,弱化流程和界面交互,不再以功能实现/业务模块来划分页面,更聚焦于用户的实际使用场景。参考支小宝。

1.2 用户与产品的交互形态革新,不在限于点击、输入等传统结构化信息的录入方式,借助摄像头/麦克风等获取多模态信息,长上下文背景信息,降低用户与产品的沟通成本。参考Google Project Astra。

1.3 软件生态系统进一步强大,获得更大权限,从系统层面调动相关应用和模块,跨应用满足用户需求。参考Apple Intelligence。

2、软件开发模式的变革

打破现有软件“数据库>前后端>测试>发布”等既有开发模式。结合产品形态的变革,未来的产品经理可能专注于Prompt写作?又或是忙于数据标注?也许产品经理通过workflow配置就能完成LLM的调优,实现界面生成,完成产品研发。

3、LLM跃进乃至AGI到来

借助更强大的LLM,用户无需详尽的描述或澄清指令,无需反复矫正结果。LLM能够结合多模态的背景信息,理解甚至猜测用户意图,将最优结果呈现。就像最懂你的老婆一样,在饭后为你点上一支烟。

四、GUI无法完全被取代

无论LLM如何强大,依然无法解决文字传递信息时的单调和低效。

在某些场景下,存在大量的信息或数据可视化等“书面表达”,这依然离不开GUI界面,需要更高效更密集的信息传递方式。想象一下,还有比现在更自然的刷抖音方式吗?

让我们回归到软件人机交互的初衷:GUI用图形化界面降低了人类学习操控的成本,用图形/音视频等形象地反馈和呈现。从这个角度来说,除了脑机接口,似乎看不到更高效便捷的反馈方式了。

未来的GUI形态,一定是以呈现为主,弱化逻辑、弱化交互;用NLUI等方式串联不同场景,解决GUI的记忆负担,用LLM和Agent完成基本操作,解放人类双手。

以上,基于我个人的理解,可能都是错的。坚决反对假权威,欢迎一起探讨学习!

(如果你说我是错的,最好证明你是对的!)

作者:Ma.x
专注产品及体验设计,关注可视化与AGI

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部