各项“烟囱式”的独立业务系统架构,希望通过AI中台共享智能化能力,降低AI业务场景的开发门槛。但在大模型技术出现之前,AI技术应用的场景往往也是一个个孤岛,缺乏泛化的通用落地场景
大模型技术的能力涌现,使得AI中台再次成为企业,特别是金融机构探索的方向,而作为AI应用与大模型之间的中间层基础工具,大模型中间件也成为当下投资机构关注的热点。面对AI对基础设施、工具、应用层的全面重塑,投资机构又将如何“掘金”?
“在没有大模型的情况下,我们过去也在思考AI应该怎么做。”一家基金公司信息技术部总经理向记者坦言,但在此之前AI的应用始终是“烟囱式”的,一旦遇到另外一个未覆盖的新问题,业务部门就需要重新开发相应的模型,导致算力使用效率不高。
“大模型技术对传统人工智能厂商和IT服务商的冲击都是非常大的。”恒生电子首席科学家白硕向记者提到,过去各个AI系统都是烟囱式的单个系统,每一个部分都是一个小模型,都需要数据训练,而小模型的学习效果也存在提升空间,但基于大量参数的大语言模型技术使得机器具备同时完成不同任务的通用能力。
与此同时,AI厂商与IT厂商的业务范围也在改变。“过去IT厂商与AI井水不犯河水,或者浅浅涉足AI的局面打破了。”白硕指出,AI赋能已成为IT服务商的必争之地,而在资管领域的AI技术应用都面临重塑。“技术层面,无论是界面、数据库访问、业务流程、API调用都出现低代码化的趋势,大家会普遍使用AI工具来提质增效。”白硕表示。
在保障数据安全的情况下进行大模型应用的落地,把通用数据建设能力沉淀下来,搭建AI中台,使得各业务条线共享通用智能化能力,成为许多金融机构的第一选择方案。
“企业专属私有可控的大模型是必然形态,机构需要保障大模型100%的安全和所有权。”科杰科技CTO高经郡告诉记者,目前大模型应用落地的解决路径主要有三种:第一是进行全量模型训练,在企业做大模型的私有化部署,结合企业私有数据进行训练,打造垂直领域的专业大模型。第二是基于开源或商业大模型,结合企业私有化数据对参数进行微调基建,使得大模型在掌握企业私有化数据的基础上进行深度理解。第三是通过通用大模型接口,帮助企业构建数据知识库,打造企业专属的AI应用。
“第一种方案需要从0开始构建自己的大模型,需要大量的人才与资金投入,当下基于开源大模型结合私有数据进行微调与模型训练是比较普遍的一种方案。”高经郡坦言。
前述基金公司信息技术部领导告诉记者,在大模型技术出现后,其所在机构与多个系统做了连调测试,并尝试进行本地化部署,将大模型进行微调、精调,基于公司原有的量化平台、机器学习成果、算力中台探索AI中台建设。
他指出,搭建AI中台需要将大模型作为所有应用的入口,基于业务场景的核心需求搭建相应的业务中台,最终实现大模型在具体业务上的应用。但是随之而来的问题是,一方面在进行精调时算力不够,另一方面是落地时选择不同厂商算法较为复杂。“最后,最难的是数据。”他向记者直言,例如在自动生成代码的场景下,要实现项目可用,至少要提供30个以上的优质项目代码,这对于机构来说有较高门槛。
在金融大模型落地的过程中,如何缩短AI研发周期、降低AI应用成本、提供实际工作效率?
受到大模型浪潮推动,作为位于AI应用与大模型之间的中间层基础软件,在解决大模型商用化问题方面,中间件行业再次受到市场关注。其主要解决大模型落地过程中资源调度、数据集成、模型训练、应用集成、知识库与大模型融合等问题。
在政府、金融、电信、交通等重点行业,中间件作为信创的重要部分,曾有过快速增长。上市公司东方通(300379.SZ)、宝兰德(688058.SH)是金融行业国产中间件市场占有率最高的两家公司,在2020年东方通净利润同比增幅超过72%,但受疫情冲击影响收入确认与业务开展,去年全年与今年一季度两家公司业绩表现并不佳。
随着大模型技术的商用落地,中间件行业有望迎来新市场需求。今年6月9日,东方通在互动平台表示安博体育,AI大模型训练需要依托大量的硬件基础设施来对海量数据来训练和优化,在数据处理和部署管理方面有着很高的要求。因此需要有高效的数据处理和管理中间件来支持大规模数据的存储、传输和处理,支持模型的快速部署、监控和调优等,还需要通过中间件来支持多种不同的硬件和软件环境,以满足不同场景下的需求。
“对于企业而言,降低大模型落地实施的能力,企业大模型的中间件是关键。”高经郡提到,例如AI OPS能力可以加速大模型应用,提供了一整套工具帮助机构解决私有环境中大模型训练的工程问题,通过提供全自动化训练环境配置与构建,低代码一站式完成数据接入、标注、监督微调、反馈强化学习和模型发布全流程,同时可以支持数据回流及模型的持续迭代。
大模型正在重塑基础设施层面与应用层,面临这些新机遇,投资机构如何看待新市场?
风险投资机构XVC合伙人陆宜向记者表示,目前全球生成式AI的发展分三个层面,一是模型层,二是基础设施与工具层,三是应用层。
“模型层的变化日新月异。”陆宜提到,无论是Open AI的ChatGPT还是MetaAI发布的Llama2,在参数量级与实际表现的发展都非常迅猛。在工具层,随着模型的快速发展,数据库、开发框架等基础设施也在同步进行。从应用层面来看,目前“百花齐放”的大模型已经成为多个垂直领域释放生产力的工具。
谈及基础模型的快速演进,生态架构师团队负责人孔雷直言,这主要是开源大模型开源生态越来越受到市场欢迎。“再过几个月,你可能会发现大模型变得非常平民化,门槛越来越低,开源基础模型又可以商用,大模型的成本会大幅降低。”他认为,随着C端大模型应用的普及,下一步大模型应用领域将主要集中在B端场景。
与此同时,由于训练大语言模型需要投入的参数量巨大,整个环节会变得非常精细化和系统化。“例如最近市场比较关注的向量数据库,都是传统数据公司目前发展的新业务方向。”孔雷提到,在大模型应用落地的过程中,在算力、算法、数据层面厂商都会有新的机遇,伴随着大模型的生态来展开。
“我们目前投了两家与大模型相关的公司,一家做基于大模型的个人情感陪伴聊天,一家为大模型及AI应用落地提供基础设施。”陆宜告诉记者基建,当下国内大模型市场还处于快速发展的早期,虽然大量大厂、行业领袖已经躬身入局,但是对于创业公司来说,大模型基础设施公司和应用型公司还有大量机会等待挖掘,投资机构也会紧密跟踪。