AI原生时代,大模型创业有“捷径”
一年前ChatGPT横空出世的时候,它之所以能引发围观人群的惊叹,乃至把这轮已经跌入情绪和现实双重深渊的人工智能行业抢救过来,是因为它相比此前的人工智能产品跨越式地产生了智能的“涌现”。
所谓“涌现”是指构成复杂系统的多个个体组件,在相互作用的过程中,于系统层面产生了这些个体所不具有的新特性。
例如像蚂蚁这样的生物,单个的个体表现不出任何高等的意识,但蚁群这个系统却可以建造巨大的巢穴,在巢穴里塞满食物,并通过明确的分工合作完成复杂的任务。有研究人员认为,由神经元构成的大脑也是这样通过这类局部作用,在个体层面“涌现”出意识的。
ChatGPT所涌现出的能力令OpenAI自身的开发者都感到意外,冥冥中似乎人类已经隐约触摸到了通向AGI的终极道路。这样的前景很难不令从业者感到心潮澎湃,对于中国的互联网企业尤其如此。
一个保守的估计是,目前国内研发的大模型总数已经超过了200个。这个现象当然首先反映出在人工智能领域,以及更广泛的计算机科学和IT产业方面,我们已经处于或者起码非常接近世界领先水平。
然而,与制造大模型的狂热相比,国内对于在大模型之上构建AI原生应用的热情似乎要冷淡得多。百度创始人李彦宏10月15日在西丽湖论坛上提到,中国目前的AI原生应用很难说出个一二来,而国外除了几十个基础大模型之外,已经有上千个AI原生应用,这是现在中国市场上所没有的。
在《深渡》看来,基于大模型本身的特征和可能的发展路径来说,上述这种“争模型轻应用”的现象其实并不合理。更恰当的行业模式应该转过来:制造大模型需要理性慎重,而业界参与大模型浪潮的激情和狂热,应该导向寻找应用大模型这个出口上来。
一、制造大模型需“冷静”
国内的大模型从数量上讲,应该已经确定性地超过了美国。
促成这个现实的最重要原因,是很多企业选择建造专有大模型,这些专有大模型通常宣称基于各自所在的行业,因而在特定场景下有着更好的表现。
然而实际情况是,这些专有大模型在智能“涌现”上往往跟头部产品相差甚远,它们基本谈不上创造多少真实价值,更多的作用体现在企业对自身技术实力的PR宣传上面。
这些专有模型面临的障碍主要就在大模型的“大”上面。
OpenAI在ChatGPT上取得成功的根本原因,并非理论上有重大突破,比如作为大模型关键支撑的Transformer架构,早在2017年就由谷歌的科研团队提出了。
ChatGPT的成功归根结底是“暴力美学”的胜利,是量变引发的质变。
这也意味着只有当参数规模足够大,训练的语料足够多,模型才会在超过某个门槛后涌现出智能。但是对于今天国内很多自制大模型的科技企业来说,他们的技术实力和所能支配的资源,其实并不足以帮助他们迈过这个门槛。
比如,我们可以从最直观的参数规模来考虑问题。在今年五月底的中关村论坛上,有业内机构发布了《中国人工智能大模型地图研究报告》。这份报告提到中国当时有超过79个大模型,但使用的标准是“参数规模在10亿以上”。一个自然的疑问是,“10亿参数”能达到智能涌现的门槛吗?
合理的猜测,大概是不能的。
因为早在2019年OpenAI开源的GPT-2就使用了15亿个参数,但当时这个模型的最大用途是用来生成fake news。作为对比,去年底首次亮相的GPT-3.5,参数规模达到了1750亿。也就是说,在超过100倍的量变过后,GPT-3.5才真正产生了令人惊艳的“智能涌现”。
而从GPT-3.5到GPT-4,模型的参数规模甚至进一步扩张。七月份的一篇论文提到,GPT-4包含了1.8万亿参数,相比GPT-3.5又增长了一个数量级。对应的,GPT-4的单次训练成本也从GPT-3的460万美元大幅增加到6300万美元。
即便是阿尔特曼,也曾在接受采访时表示:“我们要成功完成任务所需的资金比我最初想象的要多得多”。根据《财富》的报道,去年OpenAI收入为3000万美元,但净亏损总额超过5亿美元。
在ChatGPT发布后,与大部分普通人的惊讶和雀跃相反,很多高校实验室里搞自然语言处理(NLP)的研究人员发出了“NLP已死”的感叹。
一方面,ChatGPT的问世代表着NLP领域的突破性成果。但另一方面,大模型训练所需要的庞大开销,也意味着大部分实验室今后不再有能力跟进这个前沿领域的很多最新进展。
毫无疑问,对于绝大部分企业来说,这个逻辑同样成立,既没有能力也没有必要去“重复造大模型的轮子”。
从PC时代到移动互联网时代,再到如今由生成式大模型引领的AI时代,每个时代都有作为支撑的基础技术底座。而一个越来越显著的趋势是,大模型正在取代Windows和后来的iOS/Android,成为AI时代的操作系统。
从商业模式上讲,这的确又是一个缔造世界上最伟大科技公司的绝妙机会。只是这一次的胜利者,绝对不会像当初Apple起步一样,从乔布斯的车库里冒出来。
对于那些希望抓住大模型浪潮的绝大部分公司而言,登上这列火车的最好机会一定不是“买卡、囤芯片、建智算中心,从头训练自己的专用大模型”。而是应该像李彦宏说的,将基础大模型的通用能力和行业领域的专有能力相结合。这种“大模型套小模型”的产业化模式,能够很好结合两方面的优点:专用的小模型反应快,成本低;大模型更智能,可以用来兜底。
从行业发展态势看,目前其实已经有大批嗅觉灵敏的公司在这么做了
。李彦宏在15日的演讲中就提到,8月31号开放以来,文心大模型的API调用量,呈现指数级的增长趋势:“国内有200多个大模型,很多上了这个榜单、那个排名,其实都没有什么使用量。文心大模型一家的调用量恐怕比所有那200家加起来的调用量还大”。
二、AI原生应用大模型要“狂热”
在大模型出现之前的十年里,科技行业其实已经经历过好几轮的技术热潮。尽管没有像黄仁勋把大模型出现称为人工智能行业的“iPhone时刻”这么夸张,但在每一轮这样的技术浪潮中,总会有大批的投资人和创业者因为某一个新奇的概念,蜂拥而入赌上自己的金钱和时间。
当然,这些浪潮来得快退得更快,最后留下一地鸡毛,区块链、元宇宙、云计算和各种花样的O2O都是些典型的例子。某种程度上说,无论投资人还是从业者在这次大模型到来后,明显吸取了过去的经验教训,从一开始就对大模型的落地给予了更多的关注。
但需要注意的是,如我们在上面一章阐述过的,在追求大模型落地的过程中,我们不应该走制造一堆行业专用大模型的路子,因为这些不够大因而不够智能的“专用大模型”,并不能实现名实相符的价值创造。更优的落地路径是在一个强大的基础大模型上面,去调用它的各项能力,开发出丰富的AI原生应用。
不过相较于制造大模型的热情,国内从业者对于应用大模型的氛围似乎要低一些,后面这项事业是需要加一把火的。这跟国外的情况恰恰相反,因为即便是微软这个量级的公司也没有自己另起炉灶盖大模型,而是在努力把OpenAI的大模型吸纳进Office这一套生产力工具里。
其实,我们国内是有领先的基础大模型的,而且如李彦宏所说,强大的基础大模型,一定能驱动AI原生应用爆发。
今年3 月16日,百度率先发布了基于文心大模型3.0的文心一言产品。而在一个月前的2023百度世界大会上,文心大模型4.0也正式问世。当时,李彦宏以《手把手教你做AI原生应用》为主题发表演讲,现场开启邀请测试,实地展现百度在AI领域实现多维度的持续突破。凭借参数规模全球第一,文心大模型4.0的综合能力“与GPT-4相比毫不逊色”,全面领跑全球AI行业。
基于迄今为止最强大的文心大模型,在理解、生成、逻辑和记忆四大能力上,文心4.0都有明显提升。比如,在生成能力上,文心一言除了生成文字内容,更包括了图片、视频、数字人等多模态内容,可实现的创作体裁超过200种,涵盖了几乎所有写作需求。在逻辑和记忆能力上,相比之前的版本也有了成倍提升。
大模型在智能涌现后出现的理解、生成、逻辑和记忆四大能力,是AI时代到来后最本质的生产力革新。而与制造大模型本身的高门槛不同,今天的创业者同样可以极其容易地通过接入文心一言这样的大模型,通过应用这四大能力彻底重构自身产品的用户体验。
事实上,为了帮助各行各业的客户尽早用上大模型,百度在文心一言正式亮相的同一个月,就推出了文心千帆。文心千帆是全球首款一站式企业级大模型平台,既提供像文心一言这样领先的基础大模型,也包含了开发大模型需要的工具链和配套环境。在随后不到半年的时间里,千帆大模型平台上月活企业数已近万家,覆盖金融、制造、能源、政务、交通等行业的400多个场景。
大模型和生成式人工智能作为堪比工业革命的巨大机遇,已经成为公众共识。但目前来说,无论国内国外都还没有出现跨时代的AI原生应用,这是一块急需填补的“权力真空”。李彦宏在今天的演讲中表达了同样的遗憾和期待:
就像移动时代诞生了像微信、抖音、Uber这样的“mobile-native”的应用一样,AI原生时代一定会有优秀的AI原生应用是基于这些大模型开发出来的。
记住,是基于最好的基础大模型去开发应用,这是比制造大模型更容易成功的“捷径”。
三、结语
在《深渡》看来,大模型掀起的这轮AI革命来得再恰当不过。因为相较于过去那些科技变革,以文心一言为代表的国内基础大模型,表明国内的技术水平已经站到了跟国外顶尖同行并驾齐驱的位置。对于那些脑袋灵光梦想远大的庞大创业者群体而言,这在某种程度上是从未有过的“幸运”。
当然,前提是他们要选对切入这条赛道的方向,在制造大模型上多一点冷静,而在应用大模型上不妨狂热一些。
本文作者 @深渡Cross 。
版权声明
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处。如若内容有涉嫌抄袭侵权/违法违规/事实不符,请点击 举报 进行投诉反馈!