深度 | AI领域10个非共识认知(8000字长文)

先把这次的“非共识认知点”全部列出来(其实不止10个……)

1、最大的坑,就是过于简单的认为“把XXX用LLM/CUI全部重新做一遍”。

2、没有know-how支撑的尝试是赌博,有“非共识认知”支撑的迭代才是MVP。

3、AI公司的妄念:招个很牛的AI产品经理来想idea。

4、跨语言,可能是大模型最Native、现阶段最容易被感知和落地、但又最容易被忽视的能力。

5、长文本,可能是又一个“看起来不起眼、但增加数量就跃迁、涌现”了的东西。

6、当自己本身都搞不定业务的时候(从 0 到 1),不要指望 AI。

7、技术维度+产品维度+商业维度,不是在做加法,而是在做“归一化”。

8、危险:AI导致的风险,可能不是潮水,而是飓风。

9、一旦我们学会“剥离人性弱点的弊端,仅使用其工具属性价值”,负面影响,是会让人,更加自私。

10、机会:如何解脱?要么向上成长为最牛的人,要么躺平过生活。

11、当ChatGPT被研发出来之前,我们问AI的空气动力学是什么?当ChatGPT被研发出来之后,我们需要问,AI的“制动器”是什么?

12、【重要】AI时代超级个体的10倍、100倍、1000倍成长路径,到底在哪里。

另外,还有一些认知点,是之前《深度 | 关于AIGC商业化的13个非共识认知(8000字长文)》中提过的,这次口述,大家体会将更深,比如——

1、AIGC的差异化核心指标,不是节省了多少时间/人力(效率属性),而是提高了多少“转化率”(利润属性)。

2、现阶段AI落地的低枝果实,可能反而是情感AI。

3、对于转化率的提升,虚拟人很可能会有“巨大”的增量空间。

4、关于Agent:目前主流的“单体智能”思路有隐患,可能的突破口是“多体智能”——类似复杂系统/鸟群,单个智能体可能很简单(不一定要超过单个人类),但整体有非凡的智慧(AI Agent 团队 >人类团队)。

5、“场景-用户-需求”之外,需要增加一个关键词,“关系”——定义了关系,就定义了约束条件和需求属性。

6、使用AI时,把AI当成人;设计AI时,把人当成AI。

7、未来AI企业,方向定位将不是按照To C/To B来划分,而是按照To 人/To AI 来划分。

……

注:本文是我去年参加某次直播访谈活动的文字版,下面是全文,开场过程略。

一、开场话题:比起AI 1.0,AI2.0带来了哪些机遇?

主持人刀姐:刚提到,你之前完整经历了AI 1.0时代,那现在AI 2.0阶段,带来了哪些机遇呢?你怎么看?

黄钊hanniman:我想先跳出来说一个关键词,“周期”。

认知这是“多少年一遇”的机会,其实会决定我们的心态和做事方式。咱们从小往大说——

1)从产品视角看来说,类比十年前的移动互联网,是十年一遇的机会。会有很多应用层产品创新的机会出来。

所以很多人想的是,如何把自己的业务/产品形态,尽快的和大模型/AIGC结合。所以会很卷、很急的去发布产品。

2)从行业视角看,至少是类比互联网的,25年一遇的机会。

这意味着什么呢?这意味着,对于很多40多岁的第一波互联网从业者,这可能是他们这辈子最后一个、大周期性的成功(暴富)机会。

最有名的那个理论,“人生发财靠康波”,人的一生,会有三次大机会。

这也是为什么很多人把大模型,当作这辈子的“最后一仗”。

3)从人类社会视角看,这是几百年一遇的机会。

比如傅盛最近说,人类历史上唯一可以与AI相比的是蒸汽机,把热能变成动能,今天的AI,是把电能变成智能。

包括马化腾说,AI是几百年不遇的的机遇。

采取这种认知的人或者公司,会有什么心态呢?不急!慢慢来!

4)当然,从赚快钱视角看,可能是1、2年一遇的机会,那就得赶紧去做。

5)所以,整体我想表达的是,AI 2.0有那些机遇,不同的人,看到的世界是不一样的。我们每个人,选择适合自己认知、性格和擅长模式的机遇方向就好了,千万不要错配。

1年一遇的机会,是赚钱;10年一遇,是产品;25年一遇,是创业;百年一遇,是事业。

主持人刀姐:ok,刚咱们说的是底层认知,那具体来说,对于AI产品方向、对于个人职场发展、对于未来的超级个体,分别有哪些具体的机会呢?

黄钊hanniman:好,这里面内容比较多,咱们一个一个说。

刀姐:好~

(方便起见,下面跳过对话形式,直接写干货——)

二、AI产品的机会

短期长期,里面再分别按照“什么可能不对什么可能对(有机会)”来划分。

1. 短期,哪些常规认知,可能是不对的

1)最大的坑,就是过于简单的认为“把XXX用LLM/CUI全部重新做一遍”

这种观点,不是说完全不对。但问题在于,最危险的认知,就是一半对、一般不对,这种最容易带沟里去。

类比移动互联网时代,大家想当然的认为,要把所有PC上的内容,都搬到手机上。

不能这么简单的来看。

具体做什么,都是what层面的东西,不重要——重要的,是背后的how和why。

或者更具体的来说,很多时候,不是技术不够,而是缺乏深度的“行业know-how”。

比如说,设计一个直播数字人,如果没有行业理解,很可能是一个端庄、颜值高、说话语气舒缓、手部有一些简单动作的产品,事实上直播完全不是这样的!

  • 你必须知道大家平均在直播间停留的时间有多长、在哪个时间段就应该说销售话术了。
  • 必须知道什么时候全身出镜/什么时候半身出镜
  • 必须知道哪个环节是容错率高的,哪个环节是容错率低的
  • 总之,要跟这个行业相匹配的方式做对应的串联……

否则就会出来一个傻傻的、大陆货的数字人主播。

我社群里有一位产品经理,之前在某家数字人相关公司工作过,而且是近距离的接触过老板,她就跟我说,确实他们不是很懂这个领域,很头痛的问题,不是技术或产品怎么实现,而是如何去打造一个IP。

跟这相关的,还有2个问题,我特别想分享下——

a)没有know-how支撑的尝试是赌博,有“非共识认知”支撑的迭代才是MVP

什么意思呢?一定不要说,虽然我(企业方)知道这个业务方向定位,暂时是不对的(比如过于简单的说“现有业务+LLM”),但明年可能会冒出新的对的方向/认知。——这是赌博。

应该是,今天就能够说出自己的非共识认知。——有就是有,没有就是没有。这里有一根金线,明眼人是看得到的。——基于这个非共识认知,再去做产品定位预设,再去做MVP验证预设,这样的迭代,才有意义。

而且需要知道,今年的这个判断,未来可以变(类比几乎所有大公司,后来真正做大的业务,都不是最初的起点方向了),但今年一定得有,并且是基于“非共识认知”的!

即,认知能力深度是本,业务方向判断是末。前者一定得有,后者可以变化,但后者一定是需要基于前者而推演出来的。

b)AI公司的妄念:招个很牛的AI产品经理来想idea

老板或部门负责人自己的想法陷入瓶颈,往往会希望招一个AI产品经理来想idea(创新/探索新方向),希望他突然某天想出来个特别好的点子。这个思路本身,是有极大偏颇的。

i,如果有绝对信息和视野优势的老板/部门负责人都想不出来,其他条件相同前提下,指望一个具体做事的AI产品经理来想,本身就有点强人所难

ii,也许有的老板会认为,只是希望这个AI产品经理脑子灵光、点子多,能提供一些有价值的参考信息给自己;即使是这个定位,结果一般也不会太好,这是因为——

由于AI领域的特殊性,如果老板自己没有深度的AI产品认知水准,即使AI产品经理能够提出一些有价值的idea,老板(和其他人)也根本不知道如何认知评估这个idea是否靠谱、为什么、关键点在什么地方。

最终结果很可能是,即使运气好,碰巧选对了方向和需求定位,公司也愿意投入一定资源去实施,仍然大概率的会因为搞不清楚事情的关键点、最核心的指标是啥,而错过机会(浅尝辄止的把项目砍掉,直到1、2年后再后悔没有持续投入)

最大的风险就是所有人都不懂行业/场景,且自己也不是典型用户。

iii,更好的方式是,老板/部门负责人,自己先判断筛选出几个大方向(或细分方向),然后,去找这个方向内,有“资深行业背景”的产品经理,或本身就是该方向“典型目标用户”,来帮忙过滤需求

why?这是因为,老板/部门负责人们,表面上需要的是一个好的点子(idea),其实真正需要补齐的,是“垂直领域内的需求认知”。

即,“某个需求点是真实存在还是伪需求”这个坑别傻趟了——直接让有资深行业背景的人来告诉团队。

至于具体用AI可以怎么做(what),其实是相对容易的。因为只要需求把握不偏差太多、目标导向明确、评估指标定义清晰,总会有效果和积累的,无非多少/快慢的区别而已。

结论:需要招“资深行业背景”或“典型目标用户”来过滤伪需求,而不是“脑子灵光、点子多”。

刚说的是第一个点,最大的坑,就是过于简单的认为“把XXX用LLM/CUI全部重新做一遍”,然后说第二个——

2)AIGC的差异化核心指标,不是节省了多少时间/人力(效率属性),而是提高了多少“转化率”(利润属性)。

首先声明,所谓“差异化核心指标”,意思不是说,没有降本增效这个维度的价值,而是说,降本增效类的指标,不是事情成败的关键,不是一个新品类能够立住的核心指标。

关于这点,有个经典的例子:从功能手机到智能手机,大家都认为品类已经变了。

i,作为通信工具,功能手机的核心功能是拨打电话、发短信,核心指标是接通率或稳定性

ii,而智能手机(iPhone)也有电话、短信等通信功能,但是其真正决定成败的差异化价值,其实是娱乐/社交/购物等等其他功能,重点指标也变成“占有用户时长”等等,而并不是打电话的通话质量等通信指标了!

而且,对比开源节流来说,人类天然更愿意为开源付费,而不一定是节流,特别是在中国,特别是小B和大C。

AIGC领域的例子,就是我文章里提到的,PhotoRoom,具体是做什么的?服务于二手电商卖家,去掉图片背景、并增加各种细分电商应用场景所需的背景和效果。各种社交媒体、电商网站,都有不同的具有销售文案的图片,以及风格模版,用户使用后,平均提高了31%的转化率!

2. 短期,哪些非常规认知的产品方向,可能是更靠谱的

1)跨语言,可能是大模型最Native、现阶段最容易被感知和落地、但又最容易被忽视的能力

其实我在社群里,之前分享过很多这个角度的案例

先说一个2B方面的,情况是这样,那些出海公司每到一个国家地区,就需要了解当地各种法律法规条文,有巨大的时间成本。那有家AI公司,就专门提供“快速将当地法律法规情况翻译、整理成母语”的服务。从产品视角看, 非常清晰。

而且,2C方面,Spotify也推出AI语音翻译功能,“让你喜欢的播主用你的母语为你播报”——已经点出了本质:内容或IP价值是才是前提,不是任何一个小白都能把ROI跑正的。

另外,还有AirChat,一款所谓AI Native的社交产品。类似异步版的Clubhouse,用户创建私有或公开房间后,能用语音展开交流。

令人眼前一亮的是,基于LLM,用户发布语音之后,不仅可自动生成文本,并且还能根据用户选择的语言,模仿用户自己的音色,自动完成语音翻译。即,用户可以畅快地用母语和其他国家的人交流了!——这里面有很大的想想空间

另外还有:

  • 自动翻译菜单APP
  • 将(动漫)图片上的文字自动翻译工具
  • 日本地铁站使用“即时翻译屏幕”
  • 沉浸式网页阅读翻译工具
  • 将YouTube视频翻译配音成多种语言、并支持下载的工具

……

有这么多案例,其实是很有意思的机会的。

2)现阶段AI落地的低枝果实,可能反而是情感AI

首先说,为什么情感AI重要?这里涉及很多个认知点:

a)“情感”是比NLP更底层的东西。不是我一个人这么认为,2017年我私下跟一位NLP技术牛人交流时,她就表达了这样的观点。

b)AI/机器人在(多模态)表达时,人“必然”会被动的有“情感体验”,这不是以人的意志为转移的。——举例子,我第一次现成看到大型机械臂。——所以,产品经理在设计的时候,如果只考虑理性、不考虑感性维度,一定会出问题的。比如恐怖谷效应。还比如最近那个“医院里保洁大妈跟机器人打架”的视频。

c)“情感”很可能是未来AI真正的突破方向之一,未来会有很多的“黄金机会”——效率最优,升级为情感最优。

……

为什么说,情感AI可能反而是现阶段的低枝果实?比如,大众情商平均水平是60分、人性需求是至少75分,而ChatGPT默认有70分的水准——这里就有60分—>70分之间的低枝果实可以摘取。

一个“医疗+ChatGPT”相关例子——

「……研究者们原本期望ChatGPT能承担医生大量例行工作,如撰写病例、医保理赔申诉,但实际上更多时候,医生们使用ChatGPT帮助他们,以更富同情心的方式与患者进行沟通(85%的患者表示医生的同情心比等待时间或费用更重要)。

很多医疗工作者并不擅长写出深入浅出的医学手册。例如针对酗酒者,让ChatGPT被要求以五年级的阅读水平重写时,它产生了令人信服又充满安慰性指导……」

而反过来说,在专业领域,ChatGPT类产品的准确度、稳定度,可能暂时只有70分、反而达不到95分的商用标准线(人类平均水准是92~98%,所以95%是可感知、可接受的那根线)。

跟情感AI相关的,还有一个认知点——

3)对于转化率的提升,虚拟人很可能会有“巨大”的增量空间。

why?因为虚拟人是文字、声音、图像(表情/动作)等多模态信息的集大成者,是最自然的情感沟通形式。

小冰CEO李笛提到过,几年前开始,他们和MSN以及Lawson做了大量实验,实验内容就是让AI Being和人交流,最终目的是把商品准确地推送给人,同时让人能够更愿意接受消费的商品。“最终测试表明AI推荐的商品购买率达到68%,与绝大多数人类员工推荐的购买率差不多”。

要知道,互联网/移动互联网时代,常规的推荐系统或AI 1.0时代的人机交互系统,即使把推荐算法、NLP做到极致,购买率据说也不超过20%——这里面有多么大的增量空间!这是很多做AI的人,之前没意识到的认知维度。

4)长文本

我昨天突然感觉到,长文本,可能是又一个“看起来不起眼、但增加数量就跃迁、涌现”了的东西……类似之前的堆参数。具体以后在社群里分享。

(时间关系,长期的方向,就简单分享几个结论——)

3. 长期,哪些常规认知,可能是不对的

关于Agent:目前主流的“单体智能”思路有隐患,可能的突破口是“多体智能”,类似复杂系统/鸟群——单个智能体可能很简单(不一定要超过单个人类),但整体有非凡的智慧(AI Agent 团队 >人类团队)。

4. 长期,哪些产品方向,可能是更靠谱的

  • Agent(后面还会涉及)
  • 机器人/具身智能
  • AR/VR/元宇宙
  • 情感AI
  • 量子计算
  • ……

五、其他:关于Open开发者大会,你怎么看?

详见我之前文章 《OpenAI帮助我们反思:壁垒到底在哪里》。其中包括:移动互联网能够存活的app是少数,那AI时代,会更多还是更少呢?有人可能认为更少,但我认为会更多……

六、AI产品方法论

1、AI是个放大器,当自己本身都搞不定业务的时候(从 0 到 1),不要指望 AI。

2、技术维度+产品维度+商业维度,不是在做加法,而是在做“归一化”

是不能把90分作为整体产品价值的baseline的。举例:siri,10次,9次对,1次错,慢慢就不用了。

3、“场景-用户-需求”之外,需要增加一个关键词,“关系”——定义了关系,就定义了约束条件和需求属性。

举例:智能汽车上的AI语音助手。传统的思路,容易局限在帮驾驶员解放双手;但如果这个场景定位,是家庭(family)

  • 家庭里,有爸爸、妈妈、儿子、女儿,那AI助理在其中是什么关系?(哆啦A梦?)
  • 音乐/听歌场景,爸爸要听歌曲A、妈妈要听歌曲B,女儿要听歌曲C,AI助理该怎么处理?
  • 是否可以调侃的方式参与这个对话?是和稀泥,还是自己来做这个坏人?

……
更扩展的说,关系可以有很多种,员工、情侣、顾问、君臣父子……

“关系”这个词的微妙之处在于,一旦定义了关系,其实就隐藏着给“价值/功能”圈了一个边界。

比如,比如老板/领导对下属,家长对子女,天然就有“优势地位”,同样的话,会比其他人份量更重;还比如,同样的话,夫妻之间可以说,但对外人,就得换个方式表达了。

即,关系带来体验;而以前,都是工具。

4、使用AI时,把AI当成人;设计AI时,把人当成AI。

1)使用AI时,把AI当成人

使用ChatGPT时,初阶是当成“搜索/工具”来获取信息,更有价值的方式,是把她(AI)当成一个人,是为了“激发”自己的灵感

i,你获得反馈信息的质量多高,其实是取决于自己输入的数据质量的(思路、提问能力和认知水平)

ii,不要用搜索的惯性去认知和使用ChatGPT/AI 2.0产品、不要简单的一问一答

iii,最好不是期望它直接给你答案、而是用交谈(我觉得对这个问题,balabala,你觉得如何?)

2)设计AI时,把人当成AI

在设计“XXX+ChatGPT”类产品体验时,应该怎么去思考呢?

完全跳过目前的技术局限性,直接去回想/体会,自己平时工作/生活中,是怎么跟一个活生生的人在对话交互的。

比如,你在培养实习生(或者自己被培养)的时候,你是如何给ta说明需求、指出思路/原则,然后根据他的结果反馈,再去指导ta调整?

如果好好体会这些细节,是会非常非常好的、直接有助于自己的AI产品设计的。

如果忘记了当时的场景和对话内容,怎么办?直接去看微信聊天记录!都会很有收获的。

还包括,今后和自己身边的人对话时,可以让自己把他当成一个AI,去体会你们之间的对话过程,会自己冒出很多的feature思路和认知出来的。

5、未来AI企业,方向定位将不是按照To C/To B来划分,而是按照To 人/To AI 来划分。

因为LLM、AI 2.0,天生就是要端到端的解决问题。

所以未来可能是,LLM提供基座能力、中间层提供原子能力、用户完成最后一公里(按需、自己攒一个“趁手”的工具)。

用户侧,就这么打通了。2B、2C,融为一体。

然后,是另外一片天空——机器和机器交互

……

更多相关内容,详见《深度 | 关于AIGC商业化的13个非共识认知(8000字长文)》

七、个人职场发展的机会

1、对于这种新的行业周期性机会,存在我所说的“转型红利期”,没直接相关经验,有机会拿到面试机会。

2、特别的,还会有“填补行业空白的机会”。现在,对于CUI交互规范,谁能做好,谁就能在行业历史上留下自己的印记。

3、AI 2.0时代,选什么样的AI公司老板/负责人?经历过AI 1.0 周期的

八、未来超级个体的机会

危机危机,先说危险,再说机会

1. 危险:AI导致的风险,可能不是潮水,而是飓风

人工智能/机器人时代,很多人会被卷得非常痛苦

1)内容:信息过载严重、虚假信息过多。半年前AIGC/ChatGPT相关信息太多,都要看吐了。而且,如果缺乏有效监管,以后看到或听到的所有信息,都有可能是被伪造出来的——甄别信息的成本大幅提升。

2)职位:职场机会被压缩到60~80分位。不到60分的简单重复、容易被标准化sop掉,以及坐在电脑前的职位,背后根本是教育体系培养出的是“做题家”。而另一边,以前是90分的人才去创业,以后80分的人才,比如一个不错的产品经理,借助AI,以及2、3个朋友,就能每人一年赚个几十万,那为什么要打工?

3)而且,AI的卷,是一层一层的,先卷60分,然后卷65分,再卷70分……到最后,电影真的会成为现实:“精英+AI”掌控核心权力,最底层民众被圈养。不是欧洲那种完全免费、无约束的全民福利,而是“注意力经济”(看广告、玩游戏)。

4)这里,还会存在社会风险,就是我所说的“圈层踩踏问题”。比如,卷60分,这部分人,需要有时间和职场空间的疏散,对吧?他们需要有合适的安置之处。如果说,60分的人还没安置好,AI又卷到65分、70分了,那挤压的待安置人群圈层越来越多,是可能有社会动荡风险的。这也是为什么这么多大佬要呼吁,慢一点,慢一点。

5)安全:不仅是那种数字投毒,AI还会放大普通人作恶的能力

6)被操控:价值观/思想认知。Sam Altman就提出过,大语言模型可以影响、甚至是主宰社交媒体用户的体验和互动。

7)心理扭曲:自私、沉迷、分不清虚拟和现实的界限

如果AI仅仅是为了人类个体的物质生活,那一定会造成人们更加自私的。

智能手机/游戏,其实已经让很多小孩子沉迷了,AI会比手机严重至少10倍。

未来,AI/元宇宙,还将极大的模糊掉人对“现实”和“虚拟”的认知界限。我看电影《失控玩家》的体会。年轻人可能会对上街打砸抢不以为然——因为虚拟世界里是可以随便打骂NPC的。

……

8)精神痛苦所有以上问题,都会集中加权影响到每个个体的内心。

……

新兴技术落地,往往是双刃剑,其实是需要对应的“制动器”

什么意思?

例1:电报技术是铁路技术的“制动器”

火车问世之后很长一段时间,事故频发,列车调度员们必须非常小心,想各种办法,才能让这个体系不再自己手中失控。

直到1837年电报的问世和不久之后普及,才真正被解决——让调度员提前知道有火车来,进而错开轨道上的列车。

例2:安全带是汽车的“制动器”之一

汽车是 19 世纪末被发明出来的,但直到 20 世纪下半叶,不同的国家才出台了强制要求开车系安全带的法规。可以想象,这中间必然有多少人白白丧命。

所以我想说的是,当ChatGPT被研发出来之前,我们问AI的空气动力学是什么?当ChatGPT被研发出来之后,我们需要问,AI的“制动器”是什么?

2. 机会:这么危险,如何解脱?

要么向上成长为最牛的人,要么躺平过生活。

都可以,但分开说。

1)对普通人

等到未来,Sam Altman的UBI(universal basic income,全民基本收入)愿景成为现实的时候,是可以选择好好生活、不用工作的。

免费发放生活必须品、不要闹事、甚至需要按照规则要求去做一些必要的动作(比如看广告、看娱乐节目、玩游戏等等)。

但关键是,有自己清晰而调和的“价值观”、以及对自己内心的把握能力。

很多人通过工作来塞满自己的时间。如果整天无所事事,很多人会觉得无聊的。

所以,至少,你需要有点兴趣爱好,以后会好过一点。

学知识,是意义不大的;得知道自己要什么。

2)AI时代超级个体的10倍、100倍、1000倍成长路径,到底在哪里

软件大牛Kent Beck说,The value of 90% of my skills just dropped to $0. The leverage for the remaining 10% went up 1000x.——个人90%的技能价值归零,但剩下10%的价值会提升1000倍。

很多人以为这是说的好玩儿的,没多想;在我看来,这是真的有可能的——

所谓的“1000 倍”增幅的可行性在于:

第一个 10 倍:构建一个系统,尽量 sop 化。

第二个 10 倍:团队

第三个 10 倍:把 1 和 2 都用 AI 实现。

最终就是超级个体、超级组织了。

不过有趣的现实问题可能在于,很多人想直接做到第3步,但其实如果第1和2步还没搞定,第3步是不现实的,因为第3步对于“认知深度”的要求,可能远比我们想象要高得多

1)构建一个系统,尽量 sop 化。

A,为什么需要构建系统?因为如果没有系统,是不能“稳定”拿到结果的

很多人做副业/小红书,可能运气好,一开始能赚点钱,但后来,即使外部环境没有变化,自己都可能发现“收入慢慢就降下去了”,但根本不知道问题在哪里。

甚至,更多人的情况是,一直就赚不到钱(比如最近新闻里说,3个年轻人投资几十万卖汉堡包,一天收入几十块钱),因为从来没想过,整个事情是可以被抽象成一个公式的。

收入结果=A*B*C*D*E……

要把事情做坏掉,1个因素(没做好)就够;但要想真正拿到结果,可能需要每个地方都做对!(至少不出低级失误)。

B,为什么我们从来没有锻炼过这种“构建系统”的能力呢?因为我们一直在“打工”。

企业自身,就是在构建这个“系统”,每个员工只需要让自己的长板足够长,不需要考虑“体系间如何协作”。

C,构建系统的能力,难吗?

能够走上“对商业结果负责”岗位的人,都是少数,比如老板/操盘手/部门负责人;而其中,能把系统构建好的人,更是稀缺——不仅是逻辑能力,还有,对认知能力要求太高,因为这背后是对行业/场景/用户的know-how。

D,成功构建系统的好处

3个要素,每个做到2倍,就是8倍增长了

5个要素,每个提高60%,就是10倍增长了。

看起来,好像有点难度,对不对?

E,一个关键认知:专业产品能力和商业能力,是2个维度的能力!

这个世界上,有很多专业领域非常牛的专家,但是,他们如果自己去做一摊事,是赚不到钱的。

原因还是前面提到的,作为系统中的一环,你需要考虑的逻辑是,让自己的长板足够长,这会让自己更加不可被替代。

但是,要想让用户真金白银的掏钱出来(还要能稳定/持续),他需要给自己一个理由(不论理性或感性)。即,到底用户获得了什么价值。

我们很多时候的隐含逻辑是,我这么牛,或我的内容这么牛,你怎么还不付费啊?

但用户的心态是,你牛是牛,但跟我有什么关系?需要把这个理清楚。

F,所以,这个世界上的大多数人,从来没有真正构建过一个运转基本ok的商业系统(不论大小)、从来没有体验过“10倍增长”到底是怎样的一种体会。

G、当系统建立起来后,其中有很多简单重复的工作,是可以被“标准化/sop、自动化”来大幅优化的,比如流水线。

但是我们想一想,自己工作中,到底做过多少sop的事呢?

2)第二个 10 倍:团队

为什么说,不能跳过系统/SOP(第一个10倍)、团队(第二个10倍),直接应用AI呢?

背后的方法论原因,就是我提过多次的:

做MVP的时候,如果用真人,其实用的就是“最佳效果”来测试验证整个定位、流程和产品体验——如果用真人的效果都不可接受(这里指的是,没达到“及格”线),那就不用去试AI了。

反过来说,如果一开始就用AI,如果体验不及格,我们是无法判断,到底是产品思路错了,还是仅仅因为技术没实现好、还值得继续投入。

而且,通过“系统/SOP”和“团队”两步,我们其实是在锻炼自己用好AI的底层能力:

  • 知道自己要什么(价值观)
  • 拥有行业 know-how
  • 能够拆解任务
  • 构建一套产品和商业系统
  • 沉淀出 sop
  • 学会沟通/prompt(定义任务、目标、边界、约束条件、反馈迭代优化)

……
上面这些,基本上就是老板/owner/操盘手/高级PM才具备的能力段位。

现实生活中的大多数人,是达不到的。

3)第三个 10 倍:把 1 和 2 都用 AI 实现

A,为什么AI还能提高10倍?

因为一方面,应用AI之后,“我”将不需要去解决人的负面影响。比如,

管理“人心”。常规的协作/团队管理,往往首先需要考虑其底层动机(为什么愿意干?)、表层情绪(当天开不开心?)、统一思想认知(在不在一个维度上?)。

人类不可能“随时随地在线”。(仅仅AI“24小时在线”这点,就有2~3倍的提升。)

突然闹出什么幺蛾子,或者有事没事来打扰我。

简答说,就是剥离人性弱点的弊端,仅使用其工具属性价值。。。

比如最近看到个例子:

同样是提问,当问同事工作问题的时候,你会发现「人性」很快会体现出来。

老板越过一层,去问下面销售或研发,「这个事儿怎么样了?」很时人的第一反应是:「老板为什么问我这个问题?」

于是,老板得到的第一个回答是:老板,我刚刚拜访过这个客户 blahblah,他要先解释一圈。因为他不知道你想要啥,其实我只是想要一个数字,相比之下 AI 这点就好很多,问啥就答啥。

B,除了单人,还有多人团队协作时的“内耗”,比如达成共识、流程损耗、互相等待在线……

这里,其实就对应前面提到的,“多体智能”——类似复杂系统/鸟群,单个智能体可能很简单(不一定要超过单个人类),但整体有非凡的智慧(AI Agent 团队 >人类团队)。

C,不需要处理前面这些问题,这能省出多少时间啊?!可以用来做更多的事情了。

D,本身AI对于个体在“工具”属性,就有降本增效的价值,这个就不多说了。

E,当所有以上这些benefits成为现实,还会有整个“系统”层面的价值涌现提升。

大家心里稍微算一下,整体10倍,应该是有可能的吧?

最后,要再点一下,那个可能有点触目惊心的观点:一旦我们学会“剥离人性弱点的弊端,仅使用其工具属性价值”,负面影响,是会让人,更加自私

作者:黄钊hanniman
前腾讯PM,11年AI经验,干货首发公众号hanniman

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部