我的AI产品经理转型之路

接下来的这篇内容,我足足花了将近一年的时间去筹备和积累!ta将会是三白过去一年所有AI知识的汇总沉淀,以及个人转型AI产品经理路上的关键总结。

过去一年多里整个商业世界都在讨论AI,而对我而言,个人认为AI未来对我们的影响,不亚于当年移动互联网对我们的影响具体可能会体现在我们的职业方向或者创业方向上,AI可能是我们提升职业竞争力以及寻找创业方向的关键点,作为一个互联网行业的产品经理,我觉得自己有必要向AI产品经理转型,这是职业竞争的必要,同时也是我自己的兴趣所在,所以在一年前我就深深的意识到深入了解AI的重要性;

和大部分人一样,相信过去一年很多人都会有AI学习的焦虑症,去年的时候我特别希望能够有一个类似AI学习地图之类的东西,能够指导我快速深入的学习AI,但是作为一个新兴的事物,我找了很久,市面上基本没有这样的内容,大部分的都是碎片化的信息。

经过自己一年多的摸索和积累,虽然自认为已经了解了很多AI相关知识,但是我还是觉得太过零散,我想要把这些碎片化的知识系统性的组织起来,自己输出一个类似AI学习地图或者学习系统之类的东西,最好是能做到通过一篇文章,系统深入的学习AI,避免那些想要学习了解AI的朋友像无头苍蝇一样看见什么信息都啃,却不知道啃到什么时候才算到头;所以这篇文章,会是一个“从AI小白到专家的学习成长路径的内容”,也会是一个“传统产品经理向AI产品经理转型的学习路径”,我将分享如何从一个AI小白慢慢成为至少有一定专业度、符合自己标准的“专家”(以专家自诩可能会有些不要脸,和市面上很多真正的高手相比还算不上,这里主要以我个人的标准,能达到自己满意的认知程度即可),或者从一个传统互联网产品经理逐步转型成为一个AI产品经理。

为了学习AI,过去1年我做了哪些事情?

在过去的一年多里,为了想办法让自己从一个AI小白,到逐步成长成为达到我自己标准的专家,并顺利转型成为AI产品经理,我做了如下几件自认为比较重要的事情:

  1. 理解语言:投入的大量的时间学习和理解AI相关的知识,包括大模型技术以及AI应用相关的概念和术语,让自己建立行业的共同语言;
  2. 应用实践:通过大量的AI应用实践解决自己工作和生活中的效率问题,让自己逐渐成为一个能够熟练的应用AI工具提升效率的行家;
  3. 深度研究:尝试深度的研究和分析市面上的AI产品,并输出高质量的AI应用研究分析;
  4. 开发一个AI产品:自己组建团队从0到1的开发一个AI产品“AI快研侠(www.kuaiyanai.com)”,并持续的运营,完成用户规模增长和商业化;
  5. 知识输出:利用自己的知识和经历,给数百个客户和用户提供关于AI的咨询服务,帮助他们更好的理解AI和转型AI产品经理,同时自己沉淀一个AI学习的课程或知识库

我将分享哪些内容?

正如前面提到的,这是一个系统学习AI的路径地图,所以内容会比较庞大,整个内容体系预计包括20+篇文章,累计字数预计超过10万+字,三白花费了将近1个多月的时间逐步整理和输出,整个知识库内容概览如下图;而本篇内容算是对整个内容体系的一个概览和开篇全文累计2.5万字,剩余内容,以及在未来的时间里,我将分阶段部分分享出来;

在整个AI学习框架里面,概括起来,我会重点分享如下9部分内容:

  1. 分享一个系统的AI学习路径规划:在这部分里面我将尝试解答一个问题,一个小白用户,如果想要系统深入的学习AI,应该学习哪些知识或做哪些事情,其从入门到深入的实现的路径是什么样的,尝试以我自己的实践经历为样本,给大家提供一个AI的学习路径和地图;
  2. 我的AI产品经理转型经历:这部分我会具体分享过去一年我积累的关于AI的所有知识,覆盖入门学习、应用实践、应用研究、提示词设计、Agent开发、AI应用开发等,具体内容概览包括如下
  3. 入门阶段学习:用大白话理解大模型和AI,掌握入门语言,这部分我会分享20个关于大模型和AI相关的关键问题,通过这20个问题,你可以掌握和理解大模型和AI领域的基础概念,学习“行话”,未来在求职和同行交流更加顺畅加分;
  4. 应用阶段学习:熟练掌握各种AI工具的使用技巧,应用与提升工作、学习、生活效率,在这部分,我会分享我的AI应用实践,包括AI在个人IP打造、学习、办公、创作等场景的应用,目标是通过这部分的学习与实践,你能至少成为一个AI工具达人;
  5. 行家阶段学习:研究和学习AI在不同行业和领域可行的应用场景以及相应的实现方案,这部分我会和你深度分享AI在不同的行业和场景的应用研究,让自己成为AI应用解决方案的行家,并邀请你尝试为具体的业务设计AI应用场景和实现方案,目标是让自己成为AI应用解决方案的行家;
  6. 进阶阶段学习:学习通过提示词工程设计提效场景应用,在这部分,我会分享如何掌握和应用AI应用领域最重要的技能-提示词工程,学会用提示词工程快速解决高频场景提效问题,这部分你会学习提示词工程相关的知识,以及通过提示词工程应用实操,解决你具体的应用问题;
  7. 高手阶段学习:从0到1开发一个Agent应用,在这部分,我会和你分享Agent搭建的技能,帮助你理解AI应用是如何开发的,甚至让你能够具备给自己或者身边的朋友定制一个Agent,用于解决自己和身边朋友的问题的能力;
  8. 专家阶段学习:尝试自己组建团队开发一个AI应用,并尝试商业变现,在这部分,我会分享我从0到1开发和运营一个AI应用的整个过程和经验,帮助你学会如何低成本的开发一个AI应用并设计应用的商业模式,尝试完成商业变现,体验整个应用开发和运营的过程;
  9. 更多AI知识学习方法和学习资源:三白将汇总整理本次梳理汇总的学习课程、书籍、网站和资料等资源,帮助大家在看完本篇文章之后自行补充学习;

因为现在市面上有太多的割韭菜式的AI课程,让人看到就非常厌恶,导致很多人不愿意轻易相信知识分享者,可以向大家承诺的是,整个课程里面所有的内容均为三白个人在过去一年亲身经历和总结的成果,没有任何照搬复制内容,当然我也会学习其他高手的内容,但是我会在消化之后用我自己的语言去分享,不过可能个人知识水平也有限,有总结不到位的地方,欢迎给我吐槽和建议,但是谢绝纯粹的恶意攻击。

这篇文章适合什么人群?

本篇文章比较适合以下几类朋友:

  1. 适合想要了解AI到底是怎么回事的小白和入门朋友;
  2. 适合有意愿转型从事AI相关的产品和岗位的朋友,包括产品经理,运营人员;
  3. 适合已经初步了解AI,但是想要进阶学习AI,减少AI认知焦虑的朋友;
  4. 适合有兴趣在AI领域创业搞事情的朋友;

一、我为什么想转型做AI产品经理

1.「看见变化」AI再也不是空中楼阁,而是触手可摸

2023年初,当我第一次使用ChatGPT用于内容生成的时候,我整个人都震惊了,做了那么多年的效率类的工具和产品,我从来没有见过能如此丝滑的用自然语言生成内容的产品,当时带给我的是完全不一样的效率工具体验;

在之后的时间里,我开始持续不断地尝试使用这个工具,用它解决自己工作和学习上的各种各样的问题,不断地加深对这个领域的认知;加上当时的工作,刚好有一部分内容需要涉及学习和了解AI相关的内容,所以开始逐渐的加深了对AI和大模型的认知;

从那段时间开始,我就深切的体会到,这次这个东西和当年的元宇宙、区块链、web3.0那些不一样,不再是停留在复杂难懂的概念层级,或者仅仅是应用到部分领域,而是一个能实实在在的看到实际应用的产品,我们对人工智能的认知也不能再停留在机器人的阶段了。

2.「认知与信念」今天的大模型技术和AI,可能可以类比当年的互联网

随着接触的AI产品越来越多,市面上的各种可能的应用场景层出不穷;去年的6月份的时候,我个人建立的认知是,AI和大模型,将会把互联网时代的需求重新做一遍,过去我们可能想都不敢想的产品能力,或者通过自动化实现效果不好的产品,通过大模型可能都能得到很好的解决

所以,站在一个职场人的角度,我始终相信职场的道路一定要跟着时代的趋势走,才不会让自己落伍,才能持续的获得时代的红利,所以我觉得不管是出于兴趣爱好也好,后者是为了未来能够有更好的职业方向的选择和出路,我都应该让自己的工作多接触AI相关的内容,并且让自己转型成为一个AI型的人才,或者补充自己在AI领域的能力;

另外,作为一个赶上了移动互联网红利尾声的一代人,我和很多朋友时常会感叹我们这些出生于90~95的小伙伴,错过了当年互联网的“发财”的机会,但是今天的大模型技术和AI,可能就类比于当年的互联网,对我们来说,可能也是最近10年来唯一出现的一次机会,也可能是未来的10年内唯一的机会,所以我们必须要好好把握住,这是我在去年的6月份的时候的一些思考;

3.「热爱与擅长」一直都热爱和擅长做提升效率的产品和事情

在职业选择这个事情上,有一句话我觉得说的非常好,“选择一个自己喜欢,并且擅长,还有前景和市场的事情作为自己的职业或者事业”;在过去的那么多年里面,我觉得自己还是比较喜欢做提升效率的产品,也擅长做提升效率的产品,AI的出现,让我觉得,我们还可以让工作、学习上的效率再提高一下,所以我觉得把AI应用于效率的提升这个事情非常有意思,我很喜欢做这样的事情;

4.「心中的执念」尝试创业的念头,想要一个属于自己的产品

最后,作为一个潮汕人,我和大部分的胶己人一样,从来都没有放弃过创业这个念头,只是一直都在找机会和等待时机,我希望我的工作不仅仅是提升自己的能力,让自己能找到一份好一点的工作,更希望想要有一个属于自己的产品,所以我必须为了做一个自己的AI产品,让自己转型成为一个AI产品经理;

二、AI学习路径规划:如何从AI小白逐步深入了解AI?

1. 从小白到专家,AI学习的6个阶段

结合自己的经历,个人觉得,如果要给自己的AI学习路径制定一个路径规划,逐步深度的学习和了解AI,并成为这个领域相对领先更多人的“专家”,可以按照如下6个阶段逐步成长:

  1. 第一步-大模型和AI基础知识学习:系统的了解和学习大模型、AI相关的概念,掌握入门语言,首先你需要先系统了解什么是⽣成式 AI 和⼤语⾔模型,包括了解该行业的一些专业术语和概念,建立在这个领域的基础语言,才能进一步学习和了解更多的内容,当别人讨论到一些概念和术语的时候,你不会一无所知;同时,还需要理解现有的⼤语⾔模型的能力范围和边界,知道大模型和AI能做哪些事情,不能做哪些事情;这也是如果你真的进入职场领域,开始做AI领域的产品,在实际业务对接过程中,需要和研发和业务等建立的共同语言;
  2. 第二步,AI应用实践:多用现有的AI工具,把 AI 带⼊⾃⼰的⼯作和学习⽣活,做一个AI的使用者 个人认为,学再多,都不如实际去实操一下一些AI工具,比如像ChatGPT等这些非常优秀的产品,在实际的实践中,多用AI就是最好的学习方式;通过使用,至少你能知道它到底是什么,能解决你什么问题,现阶段的发展情况;另外,作为一个使用者,现阶段不要抱怨AI工具没有啥用,不够完美,个人认为没有完美的AI工具,使用者要想的是如何用好现有的工具和能力,去最大限度的解决现有能够解决的问题;
  3. 第三步,AI应用场景深度研究:研究和学习AI在不同行业和领域可行的应用场景,以及相应的实现方案,在这个阶段,你需要知道AI在某一个应用领域里面,可以结合的应用场景有哪些,包括已经被实现的,还有未来可以结合实现的;如此则可以了解目前大模型在各个行业都有什么应⽤场景,到这一步至少你可以成为一个对AI的应用领域研究深刻的“专家”,而对于未来层出不穷的应用场景也不会感觉惊讶;除了知道可以怎么应用,作为产品经理,你还需要知道相应的实现方案是什么,可以通过哪些技术手段是实现这些应用场景,这就以为着你需要关注技术动态,你不需要了解具体的技术细节,需要知道能解决哪些问题和需求的技术方案有哪些,只需要知道一个关键词,比如RAG、比如提示词工程、模型微调等等;
  4. 第四步,学会使用提示词工程解决AI应用场景问题:学习提⽰词工程,通过提示词实现自己想要的AI输出效果,或者解决具体的问题 可以完全肯定的说,提示词工程将会是所有AI产品经理的必备技能,当你掌握提示词工程的设计的时候,你已经可以利用ChatGPT这类的产品,实现自己想要的输出结果,或者一定程度上解决基本的AI提效问题; 所以在这个阶段,你需要系统的学习一下提示词功能到底是什么,并实践学习一下如何写一个高质量的提示词,以帮助自己获得更好的输出内容,甚至可以通过专业的提示词,在具体的实践中解决业务问题;
  5. 第五步,从0到1开发一个Agent应用:使用Agent开发平台,创建一个AI智能体,通过AI应用常态化的解决第四步的问题,当你掌握了提示词的能力后,你就可以尝试组合“提示词+API服务+工程设计+大模型能力”,自己创建一个AI智能体了,这个“开发”只需要用使用类似扣子这类的平台就可以实现,不需要找程序员开发,也不用自己写代码;当你能做到这一步的时候,你基本已经了解开发一个AI产品需要的技术和能力,以及市面上的AI应用是怎么被开发出来的,到此我觉得至少应该是一个合格的AI产品经理了;
  6. 第六步,自己开发一个AI产品,并尝试完成商业变现:尝试调⽤大模型API自己开发一个AI 产品,甚至实现商业变现,或者加入企业的AI项目;第五步我们只是借助一些开发工具做AI应用,如果可能,我觉得你还可以尝试从第三步中学习了解之后,找一个你感兴趣的应用场景,然后组建自己的小团队开发一个AI产品,把自己的AI提效的经验产品化,帮助更多的人,能做到这一步的肯定极少,但是再不会有比自己亲自做一个AI应用,让自己更加深刻的了解AI的世界;

个人非常“自豪”的是,三白已经完整的经历了以上的6个阶段,并且个人自认为收获非常多,在接下来的篇幅里面,我会详细、具体的分享每一个阶段我积累的知识和经验,当然因为本篇内容篇幅有限,每部分内容都只概括部分关键信息,其余内容后续更新输出;

2. AI学习课程表

为了让大家更清楚的看到各个阶段具体会学习和了解的内容,我尝试整理了一个AI学习课程表出来,方便大家一眼看到所有学习内容以及不同解决的学习目标;

三、入门阶段:一篇文章系统了解大模型

在这部分,我主要想从产品经理的视角,分享20个关于大模型的话题,让大家快速的了解大模型,并掌握AI产品经理的入门语言,便于入门的同学未来能够顺利的和行业的同行以及大模型研发人员对话交流,不过由于篇幅比较有限,我会挑选7个比较重点的话题分享,其余的后续我将通过单独的一篇文章大模型20讲:用产品经理视角理解大模型“完整分享,提前获取完整内容可私聊我。

第1讲:大模型常见的概念理解

用产品经理的语言理解常见的AI术语

  1. 大模型(LLM):现有所有的大模型,指的都是大语言模型,并且指的都是生成式的大模型,可以联想到的实际案例包括GPT4.0,GPT4o等;
  2. 深度学习:深度学习是机器学习的一个子领域,专注于应用多层神经挽留过进行学习,深度学习擅长处理复杂的数据如图像、音频、文本,因此在AI中的应用非常有效;
  3. 监督学习:监督学习是机器学习的一种方法,通过训练数据集来学习从输入到输出的映射关系。训练数据集包含输入-输出对,模型使用这些已标记的数据进行训练,学习如何从输入预测输出。常见的监督学习算法包括线性回归、逻辑回归、支持向量机、K近邻、决策树和随机森林等。
  4. 无监督学习:无监督学习是机器学习的一种方法,在没有标签数据的情况下从数据中发现模式和结构,它主要用于数据聚类和降维等任务。常见的无监督学习算法包括K均值聚类、层次聚类、DBSCAN、主成分分析(PCA)和t-SNE等。
  5. 半监督学习:半监督学习结合少量标记数据和大量未标记数据进行训练。它利用未标记数据的丰富信息和少量标记数据的准确性来提高模型性能。常见的方法包括生成对抗网络(GANs)和自编码器。
  6. 强化学习:强化学习是一种通过与环境交互,并基于奖励和惩罚机制来学习最优策略的方法。强化学习算法通过试错法来优化决策过程,以实现最大化累积奖励。常见算法包括Q学习、策略梯度和深度Q网络(DQN)等。
  7. 模型架构:模型的架构代表了大模型的主干采用了什么样的设计方式,不同的模型架构会影响大模型的性能、效率、甚至是计算成本,也决定了模型的可拓展性;例如很多大模型的厂商会通过调整模型的架构的方式来缩减模型的计算量,从而减少对计算资源的消耗;
  8. Transformer架构:Transformer是目前主流的大模型采用的模型架构,包括GPT4.0以及国内大部分的大模型,都是采用这个架构,Transformer架构之所以被广泛的使用,主要的原因是这个架构类型让大模型具备了理解人类自然语言、上下文记忆、生成文本的能力;常见的模型架构,除了Transformer架构,还有卷积神经网络(CNN)架构,适用于图像处理,以及生成对抗网络(GAN),适用于图像生成领域;详细关于Transformer架构的介绍可后面部分内容;
  9. MOE架构:MOE架构表示混合专家网络架构,表示混合多种专家模型,形成一个参数量巨大的模型,从而能支持解决多种复杂的专业问题;MOE架构的模型里面可能包含Transformer架构的模型;
  10. 机器学习技术:表示实现AI的一大类技术,包括大家经常听到的深度学习、监督学习、强化学习,这些都属于机器学习的一种技术,具体是啥作为产品经理而言不需要过分深究,只需要知道这些xx学习之间的关系就好,别被技术人员们带沟里去了;
  11. NLP技术(自然语言处理):NLP是AI的一个应用领域,专注于计算机理解、解释、生成人力语言,用于文本分析、机器翻译、语音识别和对话系统等应用场景,简单一点讲,就是把很多信息转换成人类自然语言能够理解的信息的一种技术;
  12. CV计算机视觉技术:如果说NLP处理的是文本,那么CV相当于是解决视觉内容相关的技术,CV技术包括常见的图像识别技术、视频分析技术、图像分割技术等,都属于CV技术,CV技术也是大模型应用中常见的技术,特别是后面会讲到的多模态大模型技术;
  13. 语音识别和合成技术:包括语音转换为文本技术,以及语音合成技术,例如文本合成语音技术(简称TTS技术);
  14. 检索增强生成技术(RAG):表示大模型基于搜索引擎和知识库检索的内容生成内容的技术,RAG是大部分AI应用落地的时候都会涉及的技术;
  15. 知识图谱 (Knowledge Graph):知识图谱是一种把知识关联起来的技术,通过知识图谱技术,可以让知识之间建立联系,帮助模型更好、更快的获取到最相关的知识,从而提升模型处理复杂关联信息,以及AI推理能力;
  16. Function Call :是指在大型语言模型(如GPT等)中,通过调用模型内置的或外部的函数,使其能够完成特定的任务或执行特定的操作。这一机制让模型不仅仅是一个生成文本的工具,而能够通过指定调用不同的功能,执行更多样化、具体的操作。Function Call 让大模型能够和多种API能力结合,从而让大模型的应用更好的落地,比如大模型要支持内容检索、文档识别等能力,就需要基于Function Call 的能力来实现;

大模型训练与优化技术相关术语

  1. 预训练 Pre-training:表示在大量数据集上训练模型的过程,预训练的数据集通常比较大,种类也比较多,训练后获得的是一个通用能力比较强的大模型,就好像一个人通过义务教育和上大学学习了多种通用知识,具备解决通用问题的哪里
  2. 模型微调 Fine-tuning:模型微调表示大模型在特定任务或小数据集上进一步训练模型以提高模型解决针对性问题的表现,与预训练阶段不同的是微调阶段使用的数据量相比更小,且主要使用垂直领域的数据,通过微调获得的是一个垂直模型和行业模型,模型微调,就好像入职支持的毕业生,开始接受企业的专业技能的培训;
  3. 提示词工程Prompt Engineering:用产品经理的语言理解,就是使用大模型更容易理解的提问方式,让大模型更好的输入用户想要的结果,所以提示词工程就是一门学会提问题的技巧;
  4. 模型蒸馏:模型蒸馏是一种通过将大模型(称为教师模型)的知识传递给一个小模型(称为学生模型)的技术。学生模型通过学习教师模型输出的知识来提高其性能,保持与大模型相近的精度。
  5. 模型剪枝:模型剪枝表示去除大模型不需要的参数,把整体的参数规模降低下来,从而降低模型的计算量和成本消耗;

AI应用相关术语

  1. 智能体Agent:Agent简单理解就是具备某一项能力的AI应用,如果互联网时代的应用叫APP,AI时代的应用叫Agent;
  2. Chatbot:Chatbot表示AI聊天机器人,表示一类以聊天的方式为应用交互的AI应用,包括像ChatGPT这类的产品,都属于Chatbot类应用;

大模型表现相关的术语

  1. 涌现:指的是当大模型的参数规模达到一定的规模之后,大模型能够展现出更多超出预期的能力;
  2. 幻觉:表示大模型在生成内容的过程中出现了胡说八道的情况,错误的把一些不正确的事实当做真实的情况处理,从而导致生成结果不真实的现象;
  3. 失忆:表示当对话轮次和长度达到一定限度之后,模型突然变傻,开始出现重复和失忆的情况,大模型的记忆主要受模型的上下文长度等影响;

第2讲:大模型和传统模型的区别

区别于传统的模型,大模型概括起来具备如下的特点:

  1. 具备理解和生成自然语言的能力:很多以前我们接触的传统模型,可能并不能够理解人类的自然语言,更不用说生成人力能理解的自然语言;
  2. 具备上下文记忆的能力:大模型具备记忆能力,能够关联上下文对话,而不是一个失忆的机器人,这个是区别很多传统模型的差异点之一;
  3. 基于大量的无标注文本,通过无监督的方式预训练:和很多传统模型需要依赖大量的标注数据的方式不同,无标注数据的方式大大的节省了数据清理和准备的成本;且预训练需要大量的训练数据,这些数据用于调整模型的参数,使其能够准确地执行任务,GPT3.5的训练语料高达45T;
  4. 参数规模巨大,大部分大模型的参数规模基本都在千亿级别以上:比如GPT3.5的参数规模已经达到1750亿,而GPT4.0据说可能是万亿级别参数,这些参数在模型训练过程中会学习并调整,以更好地执行特定的任务;
  5. 训练成本极高:由于其规模和复杂性,这些模型还需要显著的计算资源来进行训练和推理,通常需要使用专门的硬件,如GPU或TPU,调研称,要训练像ChatGPT这样的生成式AI,至少需要1万张英伟达A100加速卡的支持,GPT3.5这种参数级别达到1750亿规模的模型,训练需要的费用高达900万美元;

第3讲:大模型的分类有哪些?

1)按照模态类型划分

按照模态划分,目前市面上的大模型,大概可以概括为文本生成模型(例如GPT3.5)、图像生成模型(例如DALL-E)、视频生成模型(例如Sora、可灵)、语音生成模型、多模态模型(例如GPT4.0)等;

2)按照训练的阶段划分

按照训练的阶段可以划分为基础语言模型和指令微调的模型:

  1. 基础语言模型(Basic Language Model):基础语言模型是指只在大规模文本语料中进行了预训练的模型,未经过指令和下游任务微调、以及人类反馈等任何对齐优化,比如GPT3就是openai公开的基础语言模型;
  2. 指令微调模型(Instruction-Finetuned Language Model):这里的指令是指基于自然语言形式的对任务进行描述,经过指令微调的大模型,他们几乎都是在基础语言模型基础上进行指令微调、人类反馈、对齐等优化操作,例如GPT3.5就是在GPT3的基础上训练得到的;

3)按照通用模型和行业模型划分

市面上的大模型也可以划分为通用大模型和行业大模型两类,通用大模型在广泛的任务和领域中虽然表现良好,但是某些行业或领域有特定的数据、术语和任务,通用大模型可能无法充分理解和利用这些领域特定的信息,因此不一定能解决特定行业和场景的问题;行业大模型则是基于通用大模型通过专门的训练和调整,行业大模型可以在特定领域内实现更高的性能和精度,它们能解决特定问题;

第4讲:大模型开发的6个步骤

  1. 数据收集与处理:这个阶段,需要收集大量文本数据,这可能包括书籍、网页、文章等,然后对数据做清洗,移除无关或低质量的内容,然后对数据进行预处理,如分词、去除敏感信息等。
  2. 模型设计:确定模型的架构,比如GPT-4采用的是ransformer架构,然后设定模型的大小,包括层数、隐藏单元数、参数总量等。
  3. 预训练(Pre-training):模型在这个阶段就像一个学生在上学,通过阅读大量书籍(比如网页、文章等)来学习语言和知识。或者说像一个“海绵”,吸收尽可能多的信息,学会基本的语言规则,比如怎样组成一个句子,单词之间是怎样关联的等。此时的模型模型已经能理解基本的语言结构,但还没有针对特定任务的专业知识;预训练阶段通常需要的数据量非常大,对计算资源的消耗也最大,花费的时间最长;以GPT3为例,完成一次预训练的计算量是3640P浮点计算,需要将近1000块GPU;
  4. 指令微调(Fine-tuning with Instructions):也称为有监督微调,微调的过程其实就是通过投喂给模型一些带有问题和相应理想输出的问答对数据,在此基础上进行再训练,从而得到一个有监督微调模型;这个阶段的模型更像是在进行“职业培训”,学习如何根据特定的指令或任务来调整自己的反应,模型可能会在这个阶段学习如何更好地回答问题、写作或做翻译,对特定类型的问题或任务也有更好的表现。指令微调阶段只要提供相对少数的高质量的数据,模型的训练时间和消耗相对比较小;
  5. 奖励(Reward):这个阶段就像给模型设置了一个“激励机制”,通过奖励来让模型知道什么是好的回答或行为,通过这种方式,模型学会了更好地满足用户的需求,从而让模型更加专注于提供有价值、准确的回答,能够更好地适应用户的具体需求;这个过程需要训练模型的人员大量的对模型的响应结果做检测和反馈,逐步的调整其响应的质量,该过程也需要相对较高的数据,需要的时间为天级别;
  6. 强化学习(Reinforcement Learning):最后这个阶段,模型就像在进行“实战演习”,通过不断的尝试和错误来学习怎样做得更好,在这个阶段,模型会在真实世界的复杂情境中尝试各种策略,找出最有效的方法。模型在这个阶段变得更加聪明和灵活,能够在复杂和不确定的情况下做出更好的判断和回答。

第5讲:如何理解大模型的训练和微调?

1)大模型训练需要哪些数据?

  1. 文本数据:主要用于训练语言模型,如新闻文章、书籍、社交媒体帖子、维基百科等。
  2. 结构化数据:如知识图谱,用于增强语言模型的知识。
  3. 半结构化数据:如XML、JSON格式的数据,便于提取信息。

2)训练数据来源

  1. 公开数据集:如Common Crawl、Wikipedia、OpenWebText等。
  2. 专有数据:公司内部数据或付费获取的专有数据。
  3. 用户生成内容:社交媒体、论坛、评论等用户生成的内容。
  4. 合成数据:通过生成对抗网络(GAN)或其他生成模型合成的数据。

3)大模型训练需要哪些成本?

  • 计算资源:GPU/TPU的使用成本,主要取决于模型的规模和训练时间。大模型通常需要数千到数万小时的GPU计算时间。
  • 存储成本:用于存储大规模数据集和模型权重。数据集和模型文件可以达到TB级别。
  • 数据获取成本:购买专有数据或数据清洗和标注的人工成本。
  • 能源成本:训练大型模型消耗大量电力,增加运营成本。
  • 研发成本:包括研究人员、工程师的薪资,以及开发和维护模型的费用。

4)大模型的微调

大模型微调包括2个阶段:监督微调(SFT)、强化学习(RLHF),两个阶段存在的差异如下:

第6讲:影响大模型的表现的主要因素是什么?

  1. 模型架构:模型的框架类型的选择,会影响大模型的表现,包括模型的性能、效率等,目前市面上大部分的基础大模型采用Transformer框架,以及结合基础大模型和多个子专家模型形成MOE框架,其中子专家模型的表现也会影响整体模型的表现;
  2. 训练数据的质量、规模和多样性:模型性能极大地依赖于其训练数据的覆盖范围和多样性,高质量和广泛的数据集有助于模型更准确地理解和生成语言,目前大部分模型主要还是使用公开的数据为主,拥有更丰富的优质的数据资源的公司,将拥有更优越的优势;
  3. 参数规模:参数越多,模型通常能够更好地学习和捕捉复杂的数据模式,但同时也增加了计算成本,因此拥有强大的算力资源的企业,将拥有更高的优势,对于算力,核心取决于计算量(GPU的数量)、网络、存储三个维度的资源情况;
  4. 算法效率:算法能力决定了模型的推理能力和“聪明”程度,很多厂商的大模型能力上的差异,也主要是因为各个公司黑盒算法的差异,该部分是大模型厂商的核心壁垒和技术优势;
  5. 训练次数:确保模型有足够的训练次数以达到最优性能,同时避免过度训练导致的过拟合问题。

第7讲:大模型的局限性有哪些?

1)“幻觉”问题

幻觉问题指的是模型生成看似合理但实际上是错误或虚构的信息。在自然语言处理中,这可能表现为模型生成的文本或回答在表面上看起来合理,但实际上却缺乏真实性或准确性;从目前大模型的表现看,幻觉问题,是大部分用户对于大模型应用产生质疑,以及大模型生成结果难以直接使用的主要原因之一,目前也是较难解决的问题;对于AI应用层而言,也是最头疼的问题;

大模型为什么会出现幻觉的情况?

主要来源于如下几个原因:

  • 过拟合训练数据:模型在训练时可能过度拟合了训练数据中的噪声或错误信息,导致模型在生成时产生虚构的内容。
  • 训练数据本身包含虚假信息:如果训练数据中未能充分覆盖各种真实场景,模型可能会在未见过的情况下产生虚构的信息。
  • 对信息可信度的不足考虑:模型未能有效地考虑生成信息的可信度,而是过于自信地产生表面上合理但实际上虚构的内容。

是否有缓解幻觉问题的解决方案?

目前看,可能能通过如下几个方式缓解幻觉问题,至于根本性的解决,目前行业似乎并没有看到特别好的方法:

  1. 使用更丰富的训练数据:引入更多多样性和真实性的训练数据,以减少模型过度拟合错误信息的可能性。
  2. 信息可信度建模,增加鉴伪机制:引入模型组件来估计生成信息的可信度,以过滤或降低虚构信息的生成概率;
  3. 外部验证机制:使用外部的验证机制或信息源来验证模型生成的内容,确保其与真实世界一致。

2)“失忆”问题

失忆问题是指模型在长对话或复杂语境中可能遗忘先前提到的信息,导致生成的内容缺乏一致性和上下文完整性;导致失忆的主要原因包括:

  • 模型上下文记忆限制:模型可能受到上下文记忆能力的限制,无法有效地保持和利用长期依赖的信息。
  • 训练数据中的缺失信息: 如果训练数据中缺乏长对话或复杂语境的例子,模型可能未能学到正确的信息保持和检索方法。
  • 对话偏移: 在长对话中,模型可能逐渐偏离初始话题,导致遗忘先前提到的关键信息。

目前行业内似乎对于失忆问题,已经可以有一定的缓解,据了解,相应的解决方法包括:

  • 增加上下文长度,从而提升记忆容量:通过持续的提升大模型的记忆长度,从而提高模型对长期信息的保持和检索能力。
  • 多样性训练数据:引入更多包含长对话和复杂语境的训练数据,使模型能够学到更好的信息管理策略。
  • 对话管理技术: 引入先进的对话管理技术,确保模型在长对话中能够保持一致性,并有效地利用先前提到的信息。

3)“生成不当内容”问题

生成不当内容问题指的是模型在生成文本时可能产生不适当、有害或歧视性的内容,引发道德和社会责任问题。导致失忆的主要原因包括:

  1. 训练数据中的偏见:模型可能在训练数据中学到了不适当的观点、偏见或刻板印象,导致生成不当内容。
  2. 过度拟合负面样本:如果训练数据中包含大量负面样本,模型可能过度拟合这些负面情况,导致生成负面内容的可能性增加。
  3. 缺乏伦理约束:模型训练时未考虑伦理和社会责任问题,缺乏对不适当内容的抑制;

对于以上的关于生成内容的安全、伦理、道德等相关的问题,目前国内大部分的厂商似乎也得到了一定的解决,包括对模型的输入和输出内容经过安全引擎做过滤和处理,避免了对用户直接输出不恰当的内容;

4)难以解决专业问题和垂直场景问题

尽管大模型在许多领域表现出色,但是他更像是一个什么都会的通才,在特定领域的表现可能不佳,特别是在需要专业知识和细致推理的任务中,大模型可能无法提供最佳解决方案;当然这个问题,市面上存在较多解决方案可以解决该问题,包括训练和微调行业大模型、包括结合工作流和思维链的Agent设计、抑或是最简单的通过提示词工程解决;

至此,对于入门阶段对大模型的认知和理解,我先分享到这里,后续我将单独输出一篇“大模型20讲,从产品经理的角度看大模型”,从我自己的角度深度理解大模型

四、应用阶段:熟练掌握各种AI工具的使用技巧,提升工作、学习、生活效率;

在这部分,我主要分享自己过去一年如何利用各种AI工具提升自己在工作、学习、生活中的效率;我一直都认为,想要成为一个合格的AI产品经理,你至少得要亲自去实践通过AI解决自己具体的问题,这样一方面可以知道现在主流的AI产品能力能做到什么样的程度,也加深了对现有技术能力边界的理解;

多用AI,是学习AI最快的方式

个人认为,多使用AI工具,就是学习和了解AI最快的方式,所以对于身边很多没有接触过AI产品,由有兴趣学习AI的人,我总会说,你至少先去用用国内外主要的几个AI产品,并尝试用AI解决自己具体的问题,对于做不到这点的人,我基本会放弃后续的输出,因为你连用一下都不肯怎么可能能坚持下去。

10个AI提效应用实操案例

以下分享10个过去一年我通过AI工具提升效率的应用实操案例,每个案例都附上具体的教程,具体内容后续更新输出,提前获取完整内容可私聊我。

其中涉及到的AI应用工具包括如下,这几个也基本上是我最常用的AI工具:

  1. ChatGPT、豆包、腾讯元宝;
  2. 秘塔搜索、Kimi;
  3. 通义听悟(https://tongyi.aliyun.com/qianwen/)
  4. WPS AI(ai.wps.cn)、GitMind AI (gitmind.cn/app/docs)、Gamma AI(https://gamma.app/#all);
  5. AI快研侠(kuaiyanai.com);
  6. 稿定设计AI(gaoding.com);

五、行家阶段:研究学习AI在不同行业的应用场景、实现方案

1. 理解用户需求,提供解决方案才是产品经理的最终目的

AI产品经理除了需要知道怎么使用AI解决具体的问题,也要具备如何设计AI解决方案的能力,这才是一个产品经理最终要交付的东西;个人觉得,产品经理的重要职责是发现用户的需求,并整合多种资源,提供有效的产品解决方案,因此,我们有必要深入的去研究一下具体行业内用户的需求、AI应用的落地场景、以及可行的解决方案,甚至可能还要考虑产品的商业问题;

为了达成这个目的,在过去的一年里,我花了大量的时间去研究市面上主流的AI产品,包括国内火热的豆包、元宝、扣子等产品,不仅体验其产品能力,更从行业、用户、商业、产品等角度深入去分析和理解这些产品,以希望能够加强对行业和解决方案的理解;

2. 我对用户需求和AI应用场景的归纳思考

对于产品经理而言,我们经常希望能够有一个需求图谱,将一个用户潜在的所有需求具象化的列出来,从而好寻找应用场景的切入点;比如马斯洛需求原理等,但是个人觉得这些还是太抽象,不够具象,经常的时候我们需要立马找到感觉的总结,这里分享一下在AI的应用场景之下,我对大部分用户的需求的总结;

在我的认知里面,具体到AI的应用场景,我觉得用户核心有两大部分的需求:提升效率需求、精神娱乐和情绪价值需求;

围绕着这两类需求,总结一下目前市面上AI的核心应用场景和应用赛道如下:

1)提升效率需求:包括工作流效率、信息获取效率、生产效率;

AI在工作流场景效率提升应用,个人认为应用需求比较强烈的场景如下

  1. Chatbot赛道:也就是以ChatGPT为主的这类产品,为综合类的以聊天对话的方式提供应用的AI应用场景,目前也是AI市场流量最大的应用场景;
  2. Agent开发平台:以扣子为代表的agent开发工具,主要满足用户个性化定制化AI应用的需求;
  3. 办公提效:核心解决办公过程中,包括文档创作、协作沟通、日程管理等场景的通用办公需求,以及紧贴业务场景的具体应用需求;
  4. 智能客服:解决获客咨询、售后服务等人工客服场景的效率问题,解决企业和个体的客服成本;

AI在信息获取效率提升场景的应用,包括搜索、阅读、信息整理;

  1. AI搜索:解决传统搜索广告多、未直接提供检索问答结果等问题,该领域目前也是大部分AI产品核心竞争的领域;
  2. AI阅读:解决长文本、多文件内容的阅读效率问题,覆盖介质包括文档、网页、视频、音频、图片等;
  3. AI信息整理:包括关键信息的识别和提取,以及对提取结果的整理和呈现,包括一个表格、脑图、文档模版等易于理解的方式呈现;

AI在生产效率提升场景的应用,包括营销内容创作,知识创作等;

  1. 营销内容创作:以设计素材、图片、视频等视觉类内容创作,以及营销文案、营销软文等文本内容创作,该场景在企业营销场景、自媒体运营等场景需求声量比较高;
  2. 知识内容创作:包括研究报告、知识长文、论文等场景,在金融、知识付费、教育等场景的应用比较多;

精神娱乐和情绪价值需求

  1. 社交娱乐:包括市面上以Character.ai,星野等产品为主的虚拟社交的AI应用;
  2. 情绪价值:包括情感陪伴类的AI产品,还有做星座运势、性格测评等AI应用

3. 过去一年的AI应用分析汇总

因为个人的工作经历,以及兴趣爱好主要聚焦在效率方向,过去一年多里,围绕着Chatbot领域、Agent开发平台、办公软件领域,输出了几篇反馈比较不错的分析。

4. AI应用落地的三种实现方式:模型微调、RGA、提示词工程

前面部分,我们主要聚焦在用户的需求和应用场景划分这个问题上,这个是产品经理的起点,然而对于AI产品经理而言,我们还需要知道的是,将大模型应用于开发AI产品的实现方式有哪些,个人总结为3种实现方式:提示词工程、RAG、模型微调;

1)如何理解这三种方式的区别?

怎么理解这三种方式的区别,举个形象的例子,大模型有的时候输出结果质量一般可能会是如下几个原因导致的:

  1. 用户没有把问题问清楚,模型自然无法很好的回答用户的问题;
  2. 模型具备解决这个问题的能力,但是缺乏该领域的相关信息的知识,给相关的信息和知识,就可以很好的解答问题;
  3. 模型不具备解决该问题的技能,需要接受一些技能培训,提升自己的技能;

因此,提示词工程就相当于解决第一个问题,首先先把提交给模型的问题写清楚,让模型更好理解你的问题,从而正确输出内容;然而大部分用户是没有充足的时间去写一个非常细致的提示词的,他们更希望的是输入一个内容,模型能理解他们的需求直接输出;所以AI产品经理需要做的事情就是把用户输入的内容,做进一步的理解和提示词的设计,帮助用户封装和延伸设计更清晰的提示词,这就是提示词工程的意思,个人认为,提示词工程师AI产品经理的必修课,因为很多问题,其实只需要简单的提示词就可以搞定。

RAG则是通过检索或者构建知识库,给模型输入一些专业的知识和信息,帮助模型解决问题,这部分需要业务提供和整理专业知识库,或者构建一个相对有效的搜索引擎,难度会加大一些;

模型微调则相当于提升模型自身的能力,让模型通过一些技能培训具体解决该专业问题的能力,这个方式的实现成本相对更高;2.如何选择合适的方式?

那么这三种方式,到底选择什么方式比较合适,这个主要要根据具体的业务情况来评估:

第一,个人觉得如果能通过提示词解决的,肯定第一优先级用提示词工程的方式解决,这个是实现成本最低的方式,并且有的时候,只是提示词的优化,便能带来很好的效果改善,其优化效果甚至由于微调和RAG;但是提示词存在的局限在于一旦提示词太长,超过模型的上下文的时候,模型会出现混乱的情况,或者不理解提示词内容的问题,会影响效果;

至于是否采用RAG和微调,到底用什么方式,可以基于如下几个考量因素具体评估:

  1. 从数据实时性的角度:如果需要使用比较多实时性的数据,最好的方式是使用RAG,微调要求在模型准备阶段提前提供数据,在时效性方面肯定是无法保障的,而RAG可以提供比较实时的数据;
  2. 从成本的角度:RAG的实现成本是相对更低的,微调的成本更高;
  3. 从可解释性的角度:RAG的可解释性更高,可以追溯到参考依据和来源,微调是一个黑盒,充满了不可解释性;
  4. 从幻觉优化效果的角度:RAG和微调对于缓解幻觉效果方面都是有帮助的,但是RAG在应对幻觉方面是更好的,微调的效果会相对差一些;
  5. 从模型的通用能力的角度:如果你想尽可能的保证模型解决通用问题的能力,采用RAG的方式也更好,因为微调会导致模型的能力受限,可能在解决一些专业问题上的能力提升了,但是会损伤模型解决通用问题的能力,所以如果想要优先保证模型的通用能力,RAG的方式更合适;
  6. 从模型能力定制化的角度:想要让模型具备某一项特定的能力,比如表达的风格等,这个需要通过微调的方式实现;
  7. 从延迟的要求的角度:若对于应用相应的低延迟要求比较高,使用微调的方式是比较合适的,RAG的方式因为涉及检索和内容处理等流程,必然会导致整个处理的链路比较长,所以在实时性和延迟方面,是比较有损的;

因此,产品经理可以根据实际的业务情况,综合以上的因素,选择最适合自己的实现方式。

六、进阶阶段:通过提示词工程设计提效场景应用

前面也提到,提示词工程是AI产品经理的必备技能,熟练的掌握提示词工程可以让你在优化自己的AI产品的时候获得更好的输出;此外,个人认为,未来的AI产品在面向普通用户端的时候,一定是弱化提示词的设计要求的,用户只需要一句简单的需求,就可以获得自己想要的效果,但是其背后的输出逻辑的设计是需要AI产品经理来设计的,而这一个背后的实现方式,其实概括起来就是“提示词+研发工程”,所以部分我们从概念到实操深度了解提示词工程;

1. 什么是提示词工程?

前面我们已经大概介绍了提示词工程是什么,简单一点讲,就是通过更好的设计提示词,让模型获得更好的输出结果,因此我们把利用不同的提示词策略优化大模型性能从而获得更好的生成结果的工程成为提示词工程;

2. 提示词工程对于AI产品经理为什么非常重要?

  1. 提示词工程是AI产品经理的入门必修课很多人可能会觉得,要让AI生成好的结果,可能需要给模型投喂更多的数据,或者训练微调一个专门解决该问题的模型出来,但是实际上目前通过有效的优化一下提示词,就可以获得原来需要微调才能做到的效果,因此提示词的优化是一种更低成本的方式,所以对于未来的AI产品应用的落地实现,首先应该先通过提示词设计来实现,然后再考虑通过研发工程弥补提示词做不到的事情;
  2. 产品经理未来的工作是封装工程,让用户直接获得结果短期而言,大模型对于提示词的依赖程度还是比较高,但是我们不能指望所有的用户都懂得设计提示词,产品经理的工作,是理解用户的需求之后,封装隐藏背后的实现工程,让用户直接获得结果,而封装工程的其中一部分就是提示词工程,然后才是传统的产品研发工程;
  3. 未来的产品经理是先向模型提需求,再向研发提需求我们都知道,产品经理的本质工作,是发现需求,然后设计解决需求的解决方案,和传统的互联网的产品经理的工作稍微不同的是,以前产品经理是向研发提需求,让研发实现,而未来产品经理的工作,是首先先向模型提需求获得解决方案,然后再向研发提需求;

3. 提示词工程可以/不可以解决哪些问题?

概括起来,提示词工程能够做的事情,就是通过提示词设计,诱导模型输出更好的结果,所以是充分的调用模型自身的能力;但是提示词无法解决大模型本身的局限性问题,包括模型无法联网检索、存在幻觉和失忆等问题;同时,提示词也受限于模型上下文长度的问题,面对一些输入较长的场景,提示词会失效,需要通过一些其他的方式解决,包括提示词的分拆等;

4. 如何更好的设计提示词?

1)提示词的组成部分

  1. 上下文(Context):提供与任务相关的背景信息,帮助模型理解任务的整体情况。
  2. 任务描述(Task Description):明确说明需要完成的任务,包括任务目标、模型扮演的角色、工作流等;
  3. 约束条件(Constraints):限定输出的范围或特征,例如字数限制、风格要求等。
  4. 示例(Examples):提供示例输入输出对,帮助模型更好地理解任务要求。
  5. 输出格式(Output Format):指定输出的格式或结构,例如要求输出列表、段落、对话等。

2)提示词设计案例

以下以我自己设计的一个用于自动针对某一个概念关键词,让AI生成提问问题,从而帮助自己加深对概念的认知的提示词设计,将该段提示词提交给ChatGPT类产品,便可执行AI程序,以下只是提供一个结构示范,具体的效果需要持续的调整提示词才能获得更好的输出;

3)提示词设计的8个基本技巧

以下概括总结几个具体写提示词时需要遵守的基本原则,该部分也基本上是openai官方对外公开的对于提示词设计的建议:

  1. 提供清晰的指示:包括提供明确的目标、上下文背景、减少隐藏信息;
  2. 给模型一个角色设定并指定用户回答问题的口吻:让模型扮演一个专家、导师等等角色,这个对于回复质量会有很大的帮助,有利于改变回答内容的专业程度,也让模型了解对于回复内容,你的期望程度如何; 其次,引导模型用某种口吻回复,例如专家的口吻回答的内容和新闻发言人回答的内容,专业度自然是不一样的,通过引导口吻要求,可以让其撰写的内容更接近你想要的角色的语言;
  3. 提供获得答案的任务步骤:围绕着我们想要的目标结果,可以适当的给模型一些提示,告诉他获得你想要的答案需要经过几个步骤这个在一些涉及逻辑和计算的场景会很有用;有时模型会有自己的思路,得到的结果不一定是你想要的,告诉它你的思路,会让它生成的结果更接近你想要的;
  4. 提供参考案例、事实信息:给模型提供一些参考案例示范,可以让模型学习参考案例输出自己想要的内容要求;另外,模型有的时候回答的内容可能是并不准确的,如果我们能够提供一些信息输入和参考,有数据和信息依据,模型会回答的更好,比如最近发生的事件、真实的行业数据等等;
  5. 给模型一些反馈:对生成结果提供正反馈或负反馈,告诉模型你对生成的结果是否满意,这样有利于模型知道其思路是否正确,正向反馈会让模型回复质量越来越好;负向反馈也可以让模型及时纠正自己的思路;
  6. 提醒模型检查结果:经常提醒模型对回复的内容做检查,包括检查是否有遗漏、检查回复内容的准确性等等;一反面是让模型的回复内容更加的系统,另外一反面也避免模型一本正经的胡说八道;
  7. 多次重复提问:有的时候,模型因为不是非常确认你的问题,可能给你的不一定是你想要的,或者说不知道,但是通过重复的提问,并明确输出的内容,重复之后,模型反而会给你你想要的内容所以遇到模型答非所问的时候,重复几次问题,它会给你你想要的内容;
  8. 使用分隔符号,以及提示词参数:合理的使用分隔符号,可以让模型理解内容分隔,例如前面的提示词案例里面我们会用##等符号分割内容;其次,使用temperature(温度值)等参数调节输出内容的随机性和创意性等;

4)高阶提示词设计的策略

AI产品经历在设计提示词的时候,除了注意提示词设计的基本原则,也可以借鉴一些比较好的设计策略或设计思想,这是对提示词工程的高阶应用。

以下总结几个行业内的高手分享过的一些提示词设计策略如下:

  1. 思维链策略:面对一些比较复杂、专业或者场景化的问题,模型可能没有办法一下子生成非常好的结果,通过让大模型不要急于一次性的完成整个任务,而是一步步的通过分解,推理来完成任务,可以很好的解决这个问题,这就是Chain of Thought(思维链),简称COT,它能够使大型语言模型解决算术推理(arithmetic Arithmetic)、常识推理(commonsense Reasoning)和符号推理( symbolic reasoning)等类型的复杂任务。事实上,除了自己提供拆解步骤,让模型在生成之前先思考解决的问题的任务拆解和步骤也非常管用,甚至最简单的,在提示词中增加prompt片段“Let’s think step by step” 也能够强制大模型生成推理步骤!
  2. 类比推理策略,让大模型自己生成参考示例和知识:我们都知道,想要让大模型生成出符合自己需求的内容,一个比较好的方式是提供一个参考范例给模型,让它知道你想要的是什么并以此类比,但是有的时候提供范例本身就比较困难,因此我们可以切换一下思路,让大模型自己生成与之相似的例子,同时从这些例子中总结生成的经验和方法,然后通过它自己总结的方法再次生成;在研究中也发现,让大模型生成示例并不是越多越好,数量为3或者5是一个最佳的数量。
  3. 自一致性思维链策略:另一种提升生成结果质量的策略是让模型生成多个方案,最后根据多次输出进行加权投票(模型自行投票)的方式选择一种最靠谱的答案。相较于普通COT,由于大模型生成的随机性本质,并不能保证每一次生成都是正确的,如何提高其鲁棒性,提升其准确率,成了一个大问题。比如:文心一言在回答刚才题目时,第一次回答结果就是错误的。但多生成了几次,文心一言就回答出了正确答案。基于这样的思路,研究者提出了自一致COT的概念, 利用”自一致性”(self-consistency)的解码策略,以取代在思维链提示中使用的贪婪解码策略,也就是说让大模型通过多种方式去生产答案, 这种策略存在一个明显的缺陷就是太慢且耗费资源,因为要生成多套方案,意味着完成一项生成任务需要生成多套方案;
  4. 拆解子问题然后逐一解决策略:在解决复杂问题时,先引导模型把问题拆分成多个子问题;然后再让大模型逐一解决子问题,并把子问题的回答作为下一个问题回答的上文,直到给出最终答案,这是一种先拆解问题,然后每个子问题独立解决的策略;与前面第一点思维链策略不同的是,思维链策略拆解步骤之后,一次性按照步骤逐一生成,只完成1次执行任务;但是拆解子问题的策略是把每个子问题当成1次执行任务,分多个任务依次执行,最后生成完整的结果;就好像很多人写文章,AI一次性生成的结果可能没法让自己满意,但是拆分大纲之后,对每个模块单独生成,最后拼凑成一篇文章;这种策略的复杂之处在于需要定义每一个子问题的处理细节,需要投入的研究精力比较多,并且提示词会非常长,但是生成的结果必然会更好;
  5. 元提示策略:这个是最偷懒的策略,连提示词都不自己写,让大模型帮忙写提示词,用大模型提供的提示词生成;
  6. 知识生成增强策略:这个策略的核心思想是,在解决具体的问题之前,先让模型生成解决该问题需要的知识,建立好支持储备之后,让模型做更有针对性的问答;

产品经理在设计提示词的时候,可以综合以上多种策略思路,尝试调整和优化自己的提示词;

5. 不断的尝试和调试提示词,才是发掘提示词工程和经验的关键

虽然前面我们分享了很多关于提示词工程相关的策略和技巧,不过从个人实践下来,并不是所有的技巧和策略均百分百有效,目前我们通过提示词对大模型能力的探索,还存在非常多的未知和随机,有的时候很多你头疼不已的难题,可能只是在不经意间的一个小调整,哪怕是修改了一个符号,问题就被莫名其妙的解决了,所以我们常常觉得,大模型的能力是个充满神秘的未知领域,需要自己在实践中多尝试和摸索,可能就又会发现更多的新的技巧和经验;

其次就是需要耐心,调整提示词的过程挺枯燥的,不要一下子获取不到目标结果就放弃,多尝试一些思路,耐心调试,才能获得想要的效果。七.高手阶段:用扣子从0到1开发一个Agent应用

学习和了解完前面的内容后,可能你对于大模型的基本情况、AI的应用场景、如何应用落地可能都有一定的了解,接下来,你可以结合自己生活、工作、学习经历中的需求,寻找一个需求比较高的场景,亲自尝试一下用扣子这类应用开发平台自己做一个Agent应用,用于实际解决自己的问题,这个过程可以满足AI产品经理快速实操开发一个AI产品全过程的实践;

做完这些,或许你就基本知道AI应用的底层都有哪些技术实现路径,所以建议有心转型AI产品经理的,即使没有相应的工作经历,至少都要亲自体验用扣子平台创建agent的过程,分享一下个人通过扣子尝试创建过的agent如下;

这部分,后续我将计划逐步分享如何实操从0到1开发Agent应用,由于写稿工作量比较大,该部分暂时还没有完成,后续输出后会更新,欢迎后续关注。

本篇文章如下再分享几个Agent应用开发过程中的几个关键能力,掌握好这几个能力,便基本具备开发Agent应用的技能;

1.大模型选择:以扣子平台为例,目前平台除了提供官方的豆包大模型,也提供了外部模型,包括通义千问,智谱,Minimax,kimi等,具体的模型选型,可以根据大家对模型的了解情况,比如个人通常创建角色类的应用推荐使用豆包的角色扮演模型,涉及长文本的推荐kimi的模型;

2.提示词设计:这部分也就是我们前面一直强调的提示词工程部分,在这里配置和设计应用的提示词;

3.插件技能:插件技能实际上就是各种各样的API,也是模型能力的延伸,比如OCR、文档提取、搜索引擎等,这些都是插件技能,一个AI应用的实现,不可能单纯依靠大模型,必然需要结合各种插件能力,才能做出功能强大的AI应用。

4.工作流:工作流也是设计AI应用的重要编排手段,这部分也是产品经理和研发人员的业务核心所在,不过该部分的使用门槛还是稍微有些高,需要多琢磨琢磨后才能熟练使用;

5.知识库:最后一个是知识库,也就是提供一些专业的资料,让模型自己先学习,并且在生成结果的时候,结合知识库内容输出专业的内容,这部分取决于业务是否有相关的知识沉淀和业务数据。

八、专家阶段:组建团队,自研一个AI应用并尝试商业变现

最后一步,也是相对来说实操门槛最高的阶段,也就是自己尝试组建团队,亲自开发一个AI应用,并且尝试运营这个应用,达成用户增长和商业化变现的目标;这个过程,至少需要花费你半年~1年的时间,但是也是让你成长最快的一种方式;

在过去的一年里,我和团队小伙伴,用了将近1年的时间亲自走完了从需求调研、产品设计、产品研发、PMF验证、增长运营、商业变现的整个完整历程,我将在后续通过单独的一篇文章“我是如何从0到1做一个AI产品”,完整的分享我的整个心路历程,以及过程中遇到的问题和经验;

在本篇文章,我主要挑选分享从0到1开发一个AI应用过程中,如下几个关键话题:

  1. 如何寻找合适的AI的应用场景?
  2. 如何组建一个AI应用研发的小团队?
  3. 如何调研和验证需求?‍
  4. 如何思考和设计你的产品定位?
  5. 产品落地和开发阶段,可能遇到的问题与思考;

1. 如何寻找合适的AI应用场景?

关于怎么寻找合适的应用落地场景这个问题,个人分享几点自己的看法,仅供参考:

1)尽可能选择做自己擅长、感兴趣、有优势的事情

去年这个时候,我大概有2个月左右的时间,一直在思考和探索应该从哪个AI应用场景切入,从市场需求的角度上看,当时我发现深圳有非常多的跨境电商的创业者,所以一开始尝试想做跨境电商的AI应用,并且还亲自尝试了跨境电商的业务,然而实际上并不顺利,我对这个行业的业务sense太弱了,同时身边也没有一个专家级别的朋友能够弥补我在该领域的输入;

后来我开始转变一下思路,与其做一个自己不熟悉和擅长的领域,还不如尝试一个自己擅长的事情,以及从解决自己的问题入手;当时的我有大量的时间需要输出关于AI相关的研究内容,用于创作付费的知识内容以及服务身边那些有学习AI需求的客户;该过程中我需要搜集大量的学习资料,并且深度吸收之后输出为可以分享的知识,这个过程极大的占用了我的时间,所以我想着是不是做一个能够提升自己学习一个陌生领域知识效率的工具,帮助我能够快速的掌握新的信息和知识,所以我想到了做这个AI产品,如今产品已经迭代了七八个版本。

2)优先用好自己的或者自己够得着的优势资源

在后来和很多有创业想法的朋友交流的过程中,我的感受是,很多人会高谈阔论各种各样的AI应用想法,聊到激动是时候还会拍大腿激动地喊某某场景和AI结合一定能火,但是实际上能够真正落地下来的很少,很多时候是聊聊然后就没有下文了;只有少数部分围绕着自己当下已经在做的事情的朋友,他们会快速的去尝试和落地,然后把事情做成;所以,个人认为,别天天盯着别人做啥和做的怎么样,先想想自己手上有哪些优势资源能够使用,先做自己能够够得着的事情;

3)别单打独斗,找能力互补的合伙人

如果实在对某一个领域非常的认可,也很想要做这个领域的尝试,建议自己能找一个该领域的专家朋友作为合伙人一起做,当然如果你有足够的时间,也可以亲自入局尝试,让自己成为这个方面的专家,但是这个会花费你很多的时间,对于创业这个事情来说,个人并不太建议;

4)了解市面上有哪些比较不错的AI应用

对于这个问题,我有我自己的一些渠道和方法,通常我会通过如下的方式了解目前市面上有哪些不错的AI应用,以及大家都在关注和投资什么领域:

  1. 通过了解行业内应用的广告投放的情况,了解哪些产品最近在加大广告投放,我个人的逻辑是,一般开始启动投放的产品一定是已经验证过商业模式并且可以赚钱的,当然那些有钱有投资的平台不算,所以我更多的是看那些垂直赛道的小产品;至于如何看到这些数据,可以通过市面上的数据平台获取相关数据,比如APPGrowing等平台;
  2. 了解行业内的应用数据增长情况,这个的逻辑和上面是一样的,只是看广告投放数据是一个先验判断,看应用增长数据是后验判断,比较靠谱的数据来源包括questmobile提供的数据;
  3. 解市面上的投资机构他们在关注什么,这个我一般会通过咨询机构的朋友来了解,他们距离投资机构等最近,最能告诉我相关的信息;

2. AI应用开发团队的MVP组合是什么?

前面也有提到过,如果你想要做的只是一个能够快速验证需求的AI应用,只需要一个几个人的小团队就可以完成,个人认为,这个小团队的MVP组合(最小团队组合)只要综合素质比较强的4个人即可,包括业务产品经理、AI产品经理、后台研发、前端研发:

  1. 业务产品经理或运营:这个角色的人通常会是AI应用场景的发现人,他必须熟悉并了解具体的业务情况,了解客户的需求和痛点,知道自己想要的是一个什么样的产品,除了是一个能够判断业务方向,也是一个能够提需求的人,同时最好他能够承担起用户增长运营、商业设计等相关的事情;
  2. AI产品经理:这个角色要求是需要能够懂得提示词工程设计,通过提示词实现业务想要的效果,同时他能够了解大模型的技术动态,知道使用哪些大模型和开源的项目能够解决具体的产品需求;
  3. 后台研发工程师:AI应用的实现,有极多的工作量是后台技术工程的开发,所以后台研发是需要的,并且最好是全栈型的后台研发,能够具备独立的技术框架设计、能对接和整合市面上的模型和开源项目、能独立设计运营后台系统;
  4. 前端研发工程师:产品最后呈现给用户的可能是一个网页、一个小程序或者一个APP,所以你还需要一个前端研发,他最好能够同时具备网页、小程序和APP客户端开发的能力,这样可以帮你节省很多的研发资源;

3. 如何快速验证AI应用场景的需求?

很多时候,大家脑子里闪过的idea和念头可能是一个不太成熟的想法,如果你只是为了一个还没有想清楚的想法就贸然投入很多资源去做这个事情,可能大概率是不太靠谱的,在开始启动这个事情之前,为了让自己后面能够放心大胆的去投入,你还是需要先花点时间对自己的想法做需求的调研与验证,该部分分享一些自己的经历和感受;

  1. 用人工的“笨方法”先快速尝试实现一下,建立业务认知,发现问题和痛点;
  2. 设想你的目标用户是谁,找你的目标用户聊聊;
  3. 打听和了解一下目前市面上已经在做类似领域的同行

4. 如何思考和设计你的产品定位?

你会怎么定义自己的产品,在完整需求验证之后,需要思考的是自己究竟想做的是一个什么样的产品,我觉得关键需要想清楚如下几个问题:

  1. 你的产品具体的解决的什么问题,尝试用一句话通俗易懂的概括出来;
  2. 你最主要的目标用户是谁?
  3. 你的产品的核心卖点是什么?
  4. 市面上是否已经有比较好的替代解决方案?
  5. 你来做这个事情有什么样的优势?

OK,该部分我暂时先分享到这,由于篇幅原因,不适合在本篇文章长篇大论,该部分后面将计划通过单独的一篇文章输出,我将在以上每个部分详细增加个人的经历和经验,同时增加关于如何做产品的用户增长、商业化相关的话题分享,欢迎大家关注。

结尾

至此,本篇文章就暂时先写到这里。

说实话,特别享受这种为了一个目标,保持长期的学习和积累,然后一次输出的感觉,当然,本篇文章将会是我在“AI产品经理转型之路”这个专题内容的第一篇文章,围绕这个话题,我已经整理好了输出框架,后续陆续输出。

作者:三白有话说
腾讯用户增长专家

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部