大模型时代(上):大模型的出现,会对未来产生什么影响?
随着Open AI将通用大模型训练的结果通过ChatGPT的应用形式带到大家面前,我们可以认为,发展了大半个世纪的人工智能领域正式步入了广泛意义生产力提升的新纪元。
虽然在此之前,AI 算法已经在各行各业(通过大数据或充分的训练数据)悄悄开启了生产力的变革——从推荐算法到千人千面,从更好用的机械臂到车辆自动巡航。但在GPT之前,大部分算法的开展方向都更多倾向于小模型,通过在某一特定领域的固定场景的有限但大量数据,训练出以服务于指定场景操作的辅助模型,以提高在对应场景下的生产效率。
GPT 作为大模型的出现,更多意义上是将足够多的“日常小模型”整合到一起,从而诞生了普通人可以使用的 AI 模型工具。我们也太久困于“人工智障”,大模型的表现让我们感觉离着“自然语言交互”更近了一步。
国内常见小模型,而GPT出现在海外,虽然国内大厂也有自己的大模型,但GPT之前却不见经传。现在相对更可接受的说法是,国内公司一般需要更多面向业绩压力,即,他们需要更多地考量我当前完成这个模型所需要的开发和训练的成本,对应到收益是否合适。
在此之前,小模型的收益通常确定并已知,基本就是开卷考试,而大模型则更多是面向市场的未知。而 Open AI 则保持着相对的“独立性”以及对于“正确”的坚持,毕竟相当一段时间内不太需要考虑赚钱的问题(微软爸爸的 10 亿支持),从而针对于大模型这种“正确”但模糊的东西会更有优势。
不过随着市场收益的确定性被探索,战争迷雾的散开,国内厂商赶英超美的气势就又会熊熊燃起。当然,身为大厂不能用别人家大模型的骄傲(以及数据不能漏出去等的考量),也迫使各大公司都需要对大模型有所动作。可预见的未来,大模型的时代会逐渐拉开序幕。那么大模型的出现会对未来产生什么影响呢?
一、新的交互
我们上一次生产力的革命性飞跃的标志,其实可以理解为电子设备(计算机)的交互模式从 CLI(command-line interface) 到 GUI(graphic user interface) 的转化。命令行是对于电子设备(计算机)更底层的控制形式,但是需要巨大的理解成本。这也就导致在一段时间内,电子设备只能由理解命令行工作原理的人来完成操作。而 GUI 的出现,将命令行的逻辑转化成了所有人类都更容易理解的图形化表达中,使得所有人都有了在较低成本下使用电子设备的可能。同样,我们在手机上可以看到的卡片化和图标化设计,同样也脱胎于 GUI。
而说起 GUI,我们跑不了比尔盖茨和乔布斯,乔布斯首先通过麦金塔将 GUI 宣扬到市场中,比尔盖茨将携带着 GUI 的 windows 系统,装到了这个世界上几乎全部的 PC 上,再之后,随着智能手机时代的到来,乔布斯的 iPhone4 中初步引入了 NUI(natural user interface),使得 GUI 与人类的自然交互更加贴近(即,人与物体与他人交互),也更符合所有人类的自然预期。
越贴近于人类的自然预期,也就意味着越低的学习和使用成本。所以当初的 iPhone4 可以号称,没见过其他电子设备的小孩子拿来都能直接玩儿起来的存在。
更低的学习和使用成本意味着可以有更多的人,可以更便捷地使用计算效率更高的设备和其上的应用,来在对应的场景中,通过计算设备的辅助完成信息的收集、分析与整理。随着更多的个体有着更高的信息处理效率,整个社会的信息处理效率也会提升,而整个社会信息处理效率的提升,即代表着更高的信息生产效率和更高的信息消费效率,也就可以推进所有产业的快速发展。
因此,新的交互方式,其实代表着新的生产力场景。我们称大模型的存在为新的交互,也代表了新的交互逻辑变化。要梳理清楚大模型作为自然语言交互的新交互的价值,我们要先确认一下 CLI 到 GUI 的演进。我们先对交互的流程产生共识。我认为,交互的流程,本质上其实分为 5 步:
- 人类根据自己的目的,通过对智能设备系统的理解,将自己的所需要完成的目的拆解成对应的步骤
- 人类通过命令或图形交互的模式,将自己要完成的动作告知计算设备
- 计算设备根据输入的信息完成计算
- 计算设备将已完成的计算结果,通过系统的设计,通过对外输出(展示/音频等)的方式将结果告知使用的人类
- 人类评估结果是否与自己的目的相符
我们观察从 CLI 到 GUI 的变化,其实可以发现从命令行到图形交互在交互逻辑中的变化主要产生在步骤 2 与步骤 4 中,也就是人类如何告知计算设备自己所需要完成的动作,以及计算设备如何将计算结果反馈给人类上面。
通过提高所交付的信息量的方式(从单一的命令行,到各种花样的图标/按钮/交互反馈等),使得更多的人可以更容易地理解“要干啥”以及“有啥结果”。但其实本质上并没有对交互本身的逻辑产生更改。
而我生生在标准的 2-4 的交互逻辑上再扯出 1 和 5 两个点的原因也在于,CLI 和 GUI 的交互逻辑本身都一直存在一个问题,也就是至今“如何使用电子产品”依然是需要学习的这件事情的根源在于——我们依然需要将我们的目标,按照系统的逻辑拆解成不同的动作,而这一点其实也成了现在生产力的制约。大家困于 Excel、ps 等执行类软件的缘由,大多也是因为这个原因。
且,在上述的过程中,除了计算过程不需要人类参与意外,其他过程都需要人类使用自己的脑子参与在交互过程中。这也就使得,某种意义上,生产力的制约在于人类本体。在任何一个节点上,如果人们没有办法完成对应的拆解和判断,我们就无法快速达成我们的目标。
比方说我不知道怎么用 Excel,那么我就无法很好的完成数据分析和梳理工作。大模型 AI 的出现,其实动摇了原先的交互逻辑,大模型可以通过自然语义理解,在人的自然表达和计算机的命令之间建立桥梁,我们甚至可以理解为未来会变成:
- 人类表述自己的目的
- 计算设备通过识别完成语义理解,将理解的结果拆解为所需要完成的动作,计算机完成计算,并将计算结果输出
- 人类评估结果
新的交互逻辑,会极大幅地提升生产效率。生产效率的提升建立在:
- 人类并不再需要根据自己的目的,对应到系统逻辑中拆解动作,也不需要去具体得完成那些动作,从而使得智能应用和设备使用成本更加降低。
- 交互逻辑变得更符合人类的自然预期,即——与另一个人类交互。
建立在这种交互基础上,会让更多人以更低的学习和使用成本触及并处理更多的数据,生产力的革命指日可待。(在大模型训练的像个人样以后……)
而显然在当前大模型的发展进程下,距离上述推断还有一定的距离,那么这些相差的距离,可能就是此后新产品出现的地方,也是新的市场机会。一如 AutoGPT 和 AgentGPT 为代表的一些GPT辅助模型,已经在帮助用户们更好的使用 GPT,使得交互的方式更加贴近上述流程。
二、生产力革命
生产力如何提升,就不再赘述。生产力革命所带来的是,原有生产关系的动荡。也就是……很多人担心的事业问题。
好消息是,机器替代人类使得人类失业这件事并不是刚出现,而有着足够悠久的历史,所以对于社会整体来说,生产力的跃升利远大于弊。毕竟东西会变便宜。
坏消息是,必然会有一部分人从原来的生产岗位上解放出来,毕竟他们所掌握的生产技能性价比随着机器的出现大幅降低,无论是不是从资本角度上考虑这个问题,最终依然会有一批人因此而失业。
好消息是,虽然失业了但是他们所拥有的岗位知识和岗位技能其实在新的,由大模型 AI 构建的新生产关系中依然有着至关重要的用途。
坏消息是,这一点可能他们自己和老板都意 识不到,且需要个人有着较强的思维能力与总结习惯。
Why?按照上文的交互方式推断,人类在交互过程中起作用的阶段主要有二:
- 表述自己的目的,aim。
- 评估输出的结果,select。
因此,对比而言,仅掌握着充分的拆解动作、执行动作以及理解输出结果的人类,生产的性价比显然是低于大模型的。因此,除了在少数特殊的岗位,社会层面上这种人类将会被逐步替代。而解放出来的生产力,将会被投入到更加“人类”的生产中去——aim and select。
我们扒拉扒拉具体的产业来看看变化:
1)先从内容产业,被认为是第一波及范围的内容说起
在 Aim and Select 逐渐占据主流的过程中,会使得“个人/个性”在生产关系中的比重开始增加,因为 aim 动作和 select 动作本身都更加直接基于动作发起人的主观意志,而非像当前一样需要更多局限于实现方式的考量。因此不够“特殊”的 AS 都将被大模型逐渐绞杀,毕竟平庸的和直接用GPT随便设定一个 aim 和 select一样,也没啥特别存在的必要。
生产关系中,那些无法有自己 Aim 和 Select 方法论的人,会被淹没在大模型的汪洋大海中。虽然,最终人们依然会在 personal 的基础上沉淀出另一套类似于当今 UGC 的新的评估体系,导致现在 60 分及格的普通的作品变成 30 分不及格的作品,现在 75-80 分的相对优秀作品变成 60 分及格的作品,而 90 分以上的稳定优秀的作品会在其中凸显得更加优秀,使得马太效应会越加严重。这样造成的结果本质上是社会整体的审美的提升。
同时,在娱乐参考系保持不变的基础上,低中高纺锤形的分布模式会逐渐向正三角形演进,在任何条件下都差的很标准的内容将逐渐消失。一如我们现在很难在 Excel 里面写出真正很丑的表格了,在基础设施已经抬高了地板的前提下,再想往差里做还是很耗费成本的事情。因此,在应用层来说,如何抬高内容创作基础设施的地板和基础设施的运行效率,就成了接下来有可能会努力的方向。
2)此外,代码行业,是另一个备受关注的波及范围
我愿称之为产品经理消亡的第一步2333(当然其实不太可能,产品的岗位职能会随着生产方式和工具的变化而变化)。因为常见的产品的基础工作的主要部分,一般是理解并抽象来自业务方的需求,然后再具象成解决方案,并将解决方案通过各种方式告知技术开发需要干点啥。
而语义大模型的出现,在某种角度上其实已经可以完成,在业务方表达清晰自己的目的和诉求之后,大模型通过语义理解与翻译,将目的通过特定方式转化成开发项目,并给出开发项目计划,剩下的只需要 PM 去做项目推进就好了。虽然在这个过程中假设了太多现实中出现可能性极低的条件,但至少还是实现有望。
此外,写代码的过程,在已知某系统结构下,需要通过 X 方法来在 Y 部分实现 Z 功能,并前后端同步完成构建,并最后通过尝试在虚拟环境下运行代码,并根据反馈自己修改自己的 bug,这件事,似乎也不是必须由人类完成的。虽然客观来说开发去“写代码”这件事本质上和产品去“写 PRD”是一个类型的事情,都是在把事基本捋明白之后,最终落实到具体实现的过程。只是写 PRD 大概只需要打字和画图,而写代码需要了解更多代码实现的逻辑与方式。
大模型的出现,使得“写代码”这件事情,在使用代码完成功能构建这件事情上变得更加便宜。大模型在信息整合和使用领域的优势几乎无可匹敌,此前程序员们戏称的 ctrl+c/v 代码复制类型的工作将会以更高的效率以成体系的形式输出。
因此,大多纯执行类的程序员会因此而变得性价比较低(指工资不能大于 20 刀/月),但是与此同时也要求着原先的执行者们更多地向着非执行类工作的方向前行。更深入理解业务需求,更好地完成代码逻辑建构,更多地尝试不同的方法和 prompt。
大模型在这一领域中,发挥的作用其实与内容行业类似,本质上都是抬升了地板(当然现在还没抬完)。而在抬升变化的过程中,完全低于地板的人,自然会被市场认为是性价比较低的存在。而随着地板的抬升,自然会将更多人从原先纯粹执行的工作中解放出来,去更充分地发挥“人”这一因素在过程中应有的作用——Aim and select。
3)落到应用范围,我们可以大胆假设——在未来,单独的工具类 app 还会有存在的必要吗?
我们构建一个假设,即我们大多数人,在大多数日常场景下的需求都是类似的,且不需要特别特殊方法或功能去完成它。如果这个假设为真的话,那么大多数人,在大多数场景下,通过一个可以基本满足各类需求的功能去满足自己的日常诉求,就变得自然而然了。
由此可见,未来,有可能只需要一个GPT对话框,我们可能便不再需要——Todolist、calendar、weather、alarm clock、美图、美团、饿了吗、keep 等这类主要以在特定场景中提供固定工具属性功能的 app。
只要告诉大模型,把这张图磨个皮,腿拉长点,他就可以自动完成基础操作。甚至在钉钉和Notion AI 中,已经在探索通过类似的方式完成任务和低代码应用的搭建,以满足不同人的个性化需求(而不是功能化需求)。
那么工具类产品面临的挑战将是——他们的壁垒将何在?未来有哪些应用会真的消失?又有哪些会逐渐变成幕后工具?大家又会在大模型时代来临后做出怎样的应对?大概还是需要那些比我更聪明的人去寻思了。
上述的小想法,只是在我们已知的日常工作范畴内,而真正的先行者,则会去创造和探索新的执行方式,他们的存在依然会不朽。如今的大模型仅能通过已知信息应答被提出的问题,但是无法创造和说明当前还没有的信息。我们依然需要人们去识别和拓展新的边界,去拓展大模型所在地板的边界。
大模型的出现一如此前从纯手工制作到工业化的转变,并不意味着纯手工制作的消失,也并不意味着所有此前手工制作经验变得无意义。那些愿意去探索更优质的手工制作方式,探索更有效的工业化生产方式的先行者,依然是整个行业前进的动力。
三、下一步的大模型
现在的大模型并不完善,他依然有一些我们希望他能做得更好的事情。现在的大模型,一如一个执行力很强但是眼里没什么活儿的下属,当你问他什么事情或者安排他去做什么的时候,他可以手脚麻利地完成。虽然现在还有一些小问题,需要你去盯一下最后的结果,但是大体来说,说什么干什么还是没什么问题的。如果放到我们熟悉的工作场景中,这种类型的员工我们其实能觉察出来,距离“优秀员工”,他没有足够的主动性,说白了就是眼里没活儿。
当前的大模型是以响应为主的,而非主动建议。一如阿里的通义千问,“是一个专门响应人类指令的大模型”(十分严谨)。同时,在输出方案时,大模型会根据训练集中多数出现的场景,去将我们每一个场景不明确的问题赋予一个出现概率更高的场景,正因如此,才需要我们更多的执行 select 的过程,或者更多 prompt 的过程。
同时,大模型也无法获知人类是否需要在哪个节点完成判断,以约束可能输出的解决方案。导致我们只有在输出完解决方案之后,才可以提供方案的改进意见,而这个意见实际可以在方案完全产出之前就可以提供。
由此:
- 主动
- 判断节点
这两点会变成大模型未来变得更好用的契机。换句话说,让这个只知道执行的员工变得眼里有活儿,且不会替你瞎做判断。如果这个饼可以实现的话,那么距离成熟的“AI 私人秘书”,就近在咫尺了。
当然这个故事可能就有点远了。
四、大模型下的我们
那么聊点近的。
我们人类的判断在大多数时候都是依赖于直觉,而非理性。同时,大多数人一般有的是“理性感”。由此,会产生的小影响是,大模型的 bias 会对人们的判断产生影响。有实验表明,在大模型的影响下,人们对于电车难题这种道德伦理的问题判断倾向会与大模型的建议趋同。
我们由此做一点点引申。大模型当前是以响应为主的,并且是基于已有的信息完成响应。在训练的过程中,大模型会持有比较中性的偏见,同时,一般比较常见的偏见,例如性别、肤色、国籍等,在大模型输出的时候会特别完成管控。虽然这本身就已经是一种偏见了。
人们在对话中,通常会包含“观点”和“事实”,但是有些人其实不太善于分别“观点”和“事实”,同时,大模型自己其实也不知道自己输出的到底是“观点”还是“事实”,对于他来说其实都是事实。由此包含的风险是,不擅长分辨“观点”和“事实”的人,可能会把大模型自以为“事实”的“观点”认为是“事实”。
引发的问题是,我们可能从一个信息茧房脱离,进入到另一个更坚固的信息茧房。从推荐算法中脱离,跳到一个,始终会理你而且秒回,知道你想要什么和喜欢什么,并且一直能记住你不吃辣,召之即来挥之即去,也不会对你埋怨也不会对你有要求,只想着怎么能满足你的需求和愿望的,信息茧房里。毕竟,每个人都更喜欢自己,和自己的观点。
显然,离完美男友就只差一个什么功能了,是更危险的开放式囹圄(论年轻人不结婚的新理由)。这种理论上可以满足我们大多数信息诉求,甚至可以提供不少情感诉求的存在,也会在不经意间影响着我们的决策。
可能有朝一日我们再用建构主义分析人们的心智模型和心智构成的时候,就需要考虑到 2023 年作为大模型元年,不同的大模型有着不同的特性和倾向分别在不同的场景下对不同的人产生了不同的影响的问题……未来的大模型,甚至有可能成为文化和社会的一部分。
那么在大模型时代下,我们能做些什么呢?有啥法子不被淘汰,有啥法子可以乘上地板抬升的顺风车,能力大概有五项要求:
- 能提出好的问题
- 有好的价值判断逻辑与方法,以及,好的审美
- 知道如何清晰地表述自己的想法和目标,并确认对方理解的和你表达的误差不大
- 意识到自己是否处于信息茧房中,并时刻去探索新的领域
- 有意愿与能力去创造和选择新的东西
(未完待续……)
写半截儿发现这五项要求……坑还是很深的,所以计划放到下集来写……其实还顺便意识到,无论在什么时代,对于优秀人才的要求都是雷同的。我的野心自然想画好边界,建好轨道,但不是件容易的事情啊。
本文作者@产品与42 。
版权声明
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!