'智能金融'指人工智能(AI)与金融行业的深度融合。与传统的判别式AI小模型相比,生成式AI大语言模型的问世标志着AI与金融融合发展面临新的转折点。当前,大模型已被国内各类金融机构引进,作为提振内部生产力的工具,但尚缺乏面向客户的应用场景。
为积极、稳妥推进大模型在金融行业的应用并释放其巨大潜力,本文提出以下五项核心建议。一是积极拥抱新技术,加快数字化转型;二是紧紧围绕价值创造,先内后外、逐步推进;三是着力推动大小模型交互应用,降低成本,提升效益;四是高度重视数据和算力,确保模型质量;五是切实加强安全风险管理,保障AI大模型有序发展。
生成式AI大模型在金融行业的巨大应用潜力
'智能金融'概念最早于2017年国务院发布的《新一代人工智能发展规划》中提出。自2019年起,行业专家持续撰写相关发展报告,回顾和探讨AI与金融行业融合发展的情况。长期以来,我们所说的智能金融主要指传统的判别式AI模型,即小模型,与今天讨论的生成式AI大语言模型有所不同。
大模型的出现标志着AI与金融的结合面临新的转折点。当前,我国从大型银行与股份制银行到证券保险公司的各类金融机构都在进行积极准备,研究应用大语言模型的发展,并将其引进作为内部生产力工具,但大模型目前仍没有真正面向客户服务的应用场景。
麦肯锡在2023年发布的一份研究报告中分析了生成式AI大模型为金融行业带来的经济价值。据其估算,应用生成式AI大模型每年为企业端带来的经济价值为2.6-4.4万亿美元;其中,全球银行业使用大模型可使其每年营业收入提高2.8-4.7%,这一比例高于全球制造业、零售业、旅游业、运输业和物流业等所有其他行业。可见,大模型在金融行业有着巨大的应用潜力。
一、积极拥抱新技术,加快数字化转型
智能金融是数字金融的高级形态,这两者之间是相互促进的关系。数字化转型是智能化的前提和基础,而大模型的应用是加快数字化转型的'核动力'。不同于原先的小模型,大模型的应用将为数字金融带来新业态、新模式。
金融机构应全面认识AI大模型应用的紧迫性和重要性。一方面,在找到可落地的、面向客户的应用场景前,不能高估大模型在当前的作用,避免盲目投入导致资源浪费;另一方面,绝不能低估其未来的潜力,须紧跟发展趋势,提前布局、做好准备。
需要指出,中小金融机构在数字化转型中面临诸多困难。有观点认为,大模型的问世或极大加剧中小金融机构与大型机构之间的差距,即所谓的'马太效应';但也有分析指出,大模型为处于头部的中小金融机构实现'弯道超车'带来了机遇。如何充分认识大模型为中小金融机构数字化转型带来的机遇和挑战?如何立足其自身资源禀赋、帮助一批有条件的中小金融机构实现跨越式发展?这些问题应该提上日程。
在具体实施路径上,金融机构应构建云原生的AI基础设施,支持弹性伸缩的计算资源。同时,建立统一的AI开发平台,降低技术门槛,使得业务人员能够参与到模型的应用场景中。此外,还需加强IT架构的现代化改造,确保遗留系统能够与大模型服务进行高效集成,通过API网关实现数据的安全流转。
二、紧紧围绕价值创造,先内后外、逐步推进
与其他科技应用一样,AI大模型在金融领域的应用也须坚持以客户需求为主导,以业务价值创造为核心。金融行业应着力构建合适的场景,引入AI大模型,根据自身数据对其微调、训练,然后基于试点项目进行使用。
这个过程中,应着眼于业务中的痛点和难点问题,不能为了应用而应用,而是要通过应用大模型创造服务新模式,从而大力降低成本、提升效益,并改善客户体验。目前,各金融机构对应用AI大模型的步骤掌握得比较好,采用了先内部使用、再根据条件延伸至客户服务的做法。
在企业内部应用大模型作为生产力工具时,应引入价值观评测机制。已有一些企业进行了成功的尝试,充分利用AI代理软件作为管家、助手,对于内部员工是否调用大模型、并采纳其得出的结论加以控制。这方面也还需进一步改善。
具体应用场景包括:
- 代码辅助:利用大模型生成基础代码片段,提高开发人员效率。
- 文档处理:自动摘要合同、研报,提取关键信息。
- 合规审查:辅助检查交易记录是否符合监管要求。
- 知识问答:构建企业内部知识库,快速检索制度规范。
三、着力推动大小模型交互应用,降低成本、提升效率
AI大模型具有'大而强'的特点,优势在于基础性和通用性,但对数据算力要求高,运行维护成本大,专业性也不足。相比而言,小模型的特点是'小而美',体量小、成本低,易于训练和维护,虽然性能远不及大模型,但在适合的垂直专业领域应用更具优势,银行在风控和客户服务上使用的大部分都是传统模型。
因此,金融机构需建立大小模型协同发展的框架。这样不仅有利于未来大模型的落地应用,也可以进一步促进小模型的发展。小模型能以较低的成本实现大模型的部分功能,我们可以增强小模型的性能,以满足具体专业的应用需求,同时提升智能金融服务整体水平。
此外,大小模型交互使用、共生共融还有利于模型依靠反馈进行强化学习,促进模型迭代升级。金融机构需研究大模型的技术栈和传统AI模型的技术栈如何融合发展,开发相关技术平台与框架。未来,大小模型的交互使用将是长期趋势。
技术实现上,可采用路由机制,将简单任务分配给小模型,复杂任务分配给大模型。利用模型蒸馏技术,将大模型的知识迁移到小模型中。同时,探索参数高效微调(PEFT)技术,如LoRA,以降低训练成本。在推理阶段,采用量化技术减少显存占用,提升响应速度。


