AI创业一个月,我逐渐悟了…

23年,以OpenAI领头的大模型赛道风靡一时,一时间国内、国际诸多玩家纷纷入场。巨头们主要以底层能力入手开始卷,做自己的大模型,而在广袤的应用层,人人都有机会做自己的大模型应用。于是起心动念,开始在闲时研究相关内容。

说来简单,实际促使我实际开始动手去做的,还有一个关键的信念/观点——场景闭环是成败关键。

随着OpenAI开放了GPTS,网上出现一个段子说“每个人都在做自己的GPTs,同时没有人愿意用别人的GPTs”,除了用户自制的对话应用的确良莠不齐的因素外,我认为还有一个关键因素是,清一色基于聊天界面的应用很难打造品牌爆款,背后的原因是简单的聊天页面无法完整闭环场景。

比如常见的AI创作小红书文案的场景,通过优化后的prompt的确可以让AI在给定的语境下生成一段看似符合小红书常见帖子的文案,但如果想专业运营好一个小红书账号,你还会面临:

  • 生成的帖子文案千篇一律,口吻不符合自己账号调性
  • AI生成的内容一眼假,缺少留存点
  • 做账号时经常需要做营销内容与转化内容,不同类型的内容有不同的文案诉求
  • 生成内容后,没有完整的数据闭环,依然需要其他工具管理账号
  • 不同定位的账号需要不同类型的专业知识库

而以上这些问题,都是你在一个与AI的聊天框中无法解决的。这也是为何GPT3.5面世时各路媒体纷纷报道世界变了,但一年多后的今天,你可能觉得世界变化似乎并没有那么大的原因。

聊天框 插件在一定程度上强化了AI能处理的场景,比如搜索引擎在可预见的将来就一定会被取代,因为AI在阅读、搜索、归纳信息的效率上是人所不能比的。

但同时,缺少细分行业的业务流程逻辑,也意味着单一的对话应用必然无法在各个领域都取得良好表现,反而是那些已经在垂类领域有认知积累的玩家,有机会在此技术革命中取得更好的口碑,比如AI 数据库查询,AI 客户管理系统,AI大批量面试,AI优化在线文档,都是有商业价值且能切实提高效率的场景。

AI创业一个月,我逐渐悟了…

图为阿里云AI 数据库管理的应用,意味着不会sql的同学也可以按需查询所需数据

言归正传,决定去做后,便开始考虑要做的定位与场景。

一、市场细分与定位

做大模型市场的定位时,细分市场的第一刀是2c&2b。

在2b的企业服务侧,大模型存在的形态,或是与原有场景深度结合,或是基于会话能力创造出了新的可行产品。比如营销获客领域,一键生成的内容与批量发布形成了新型的内容平台管理,由人生产内容更新为机器生产内容,让矩阵运营流量平台账号的成本更低,效率更高(当然,流量平台后续一定会对此相应进行监管);

  • 比如客户跟进领域,基于平台提供的客户上下文信息,大模型可以以销售个性化的口吻生成跟客话术推荐,并在通话后智能总结通话摘要;
  • 比如客户服务领域,基于知识库的大模型,在信息的提取与理解方面已经超过了大部分客服,只需要简单的一份pdf文档,就能训练一个掌握全部信息的客服(以目前的技术水平,实际场景中仍然有无法识别并发送知识库图片、无法帮助客户操作等弊端)。

已经落地的案例中也可以看到,大模型能力必须与使用场景深度结合才能更好地发光发热,单纯具有生成小红书文案的能力不足以支撑一个完整的产品,但如果可以批量管理数千个小红书账号内容的自动生成与数据管理,这才是合格的商业化产品。

相比2c,2b市场更要求完整产品交付,也对应需要更高的启动成本,所以这部分市场我没有考虑。接下来,我们再看下2c的市场。2c的市场太大了,我们的目的是找到潜在的切入点,如果机械按照“社交、电商、游戏、内容…”等领域去做细分无疑是很呆的,对我们的目标也没有任何建树。所以我这里仅仅基于做平台/做场景粗粗分类。

第一块2c的市场是做大模型底层建设。这是大厂们的首选,无论是基于品牌、商业竞争、企业价值等角度,国内企业一定要有自己的大模型,并基于自己的大模型搭建平台。典型如百度的文心一言,字节的coze(豆包/cici),第一步是训练属于自己的大模型,第二步是基于自研大模型做平台发展GPTs。

第二块市场属于各种细分场景,将大模型的开放能力包装一下,形成自己的应用。

最直白的的做法是把会话、画画等能力接入进来,以别人的能力做自己的品牌,如果你在微信小程序搜AI,可以看到不少这样的应用——因为某些限制,只是简单把国外的能力拿过来,其实也是有较大需求市场的。

另一种更专业的做法则是专注于某种场景提供服务,比如KIMI,早期定位于“快速阅读整理资料”的场景,把文章发过去后即会快速阅读给出总结,随着扩展的需要,目前又拓展了网络搜索、超长上下文的能力,去承载更多应用。

细分后,我的目标也就基本框定在了“2c市场中的细分场景”这一部分。最终产品初步定位为小程序精品GPTs的市场,同时在产品架构上支持原始GPT能力与数个内置的场景化GPTs,这样选的原因包括:

  • 基于小程序主要是基于增长的考虑。大模型的核心魅力之一在于“对于自定义输入内容所带来的未知输出的期待”,而这种游戏性很适合做裂变增长,比如年前在年轻人群中火过的“哄哄模拟器”,把哄女朋友的场景做成了文字闯关小游戏,就是个很好的增长案例。
  • 缺少诉求极其强烈的使用场景。个人直接做2c的微型项目,最稳妥的方式就是自己就是这个领域的深度用户,否则就需要付出数倍的努力去做用研。当下的我并没有某个强烈且愿意稳定付费的细分场景,所以需要在多种细分场景上试。当然,这也会导致更高的维护成本,以及错过真正高价值场景的风险。

1.0版本中,我选择了“起名”的场景。大模型的语义理解与内容生成能力很适合做一个发散性的起名助手,且相比直接用通用对话AI起名,独立的小程序意味着可以增加“起到满意名字的添加备选”“分享我的备选列表给家人”“管理家庭备选列表及投票”“查看备选名字重复率”等延伸诉求。且起名虽然极其低频,但在国内广大的基数下,依然有可观的市场。

二、版本、定价与增长

由于是个人项目,我没有打算贴钱做用户量,要做就从第一天开始自负盈亏(当然,基础的时间、工具投入还是要的,我预了大概出去玩一趟的机票钱来做这件事)。

大模型选型上,我使用了GPT3.5,因为4.0的价格实在太贵了(而国内大模型仍处于追赶阶段,效果较差)…3.5的定价是输入0.0005刀/1000tokens,输出0.0015刀/1000tokens;而4的定价则是输入0.01刀/1000tokens,输出0.03刀/1000tokens。

不要以为这个价格很便宜,随着用户与AI聊天的记录增多,每次对话时AI都会将之前的对话记录阅读一遍,看似AI只回复了几十个字,但其实已经消耗了几千tokens。按照用户每次对话消耗2000输入tokens 1000输出tokens的量来预估,AI每次回复会消耗2000/1000*0.0005 1000/1000*0.0015=0.0025刀,约人民币2分钱,于是初步定价4.9元/15次起名机会,相比传统人工起名的收费显得很良心,我也有一定空间来做免费体验等转化功能。

1.0版本的搭建大概用了半个多月时间(使用低代码工具自己搭建的,不需要写代码且效率更高),上线了基础的起名、收藏起名记录、付费、看广告获得免费次数的功能,算是实现了基础的闭环。目前主要的增长渠道还是小红书的推广,通过内容引流,去获得免费流量,上线一个月也做到了几百月活,获得了一部分付费与广告收入。

中间微调过两次策略,第一次是发现用户付费率很低,进一步去看数据,发现几乎每个进来的用户都会去对话起名,但大部分用户用完赠送的聊天次数后没有进一步的转化动作,考虑场景足够刚需,于是下调了赠送的体验次数;第二次是发现一位用户在两天内看了170条广告(来获取免费次数),于是下调了看广告赠送的次数且增加了最大免费次数。

至此,一阶段的场景验证已经基本完成,验证了在细分场景下的确有做一些轻应用的空间。下阶段则要进一步验证增长与收入模型,目前的推广手段还比较单一,依赖公域平台的内容流量,下个阶段希望则通过拓展场景,去获得口碑或裂变式增长。

三、小结

下笔写来简单,实操过程中实则有很多细节,要花费心力去优化解决,比如如何申请openai的API,如何代理API,如何将AI起的名字存入表中等等。本篇重点在过程中的思路而不在实操,因此刻意忽视了执行的落地细节。

总体来说,现阶段大模型的能力足够支撑我们做一些创新产品,如果场景的确可以为用户/企业带来实打实的价值,也可以带来一定的商业回报。当然,还是那句话,创业有风险,所以如果你希望做自己的项目,还是建议在闲暇时间兼职做,不要一头莽进创业者队伍。在实际投入时间精力之前,也可以通过AI聊天产品做一些基本的验证,确保这个场景的确有价值,再考虑产品化。

版权声明

本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部