企业应对大模型的策略及方法
随着生成式人工智能技术的快速发展,大模型已从通用场景迅速向垂直领域渗透。对于企业而言,未来的竞争焦点在于如何站在通用大模型的肩膀上,基于自身的业务逻辑和私有数据,打造出具有独特竞争力的行业大模型。
一、大模型发展趋势:垂直化与行业化
大模型的发展战事已明确从通用大模型转向面向垂直领域的行业大模型。正如业界共识所示,未来所有的应用都将基于大模型来开发,每一个行业都应该拥有属于自己的专属模型。这意味着需要用 AI 原生思维重构所有的产品、服务和工作流程。
- 通用大模型的局限性:虽然通用大模型具备强大的涌现能力,但在缺乏特定行业数据的情况下,其对专业领域的理解存在天然局限。例如在医疗、金融等高精度要求领域,通用模型难以满足合规性和准确性需求。
- 行业知识的沉淀:每个行业都是独立的知识体系,包含庞杂的知识和大量沉默的行业数据。只有通过行业大模型才能激活并发挥这些数据的价值,生成的内容更符合特定垂类场景的需求。
- AI 原生应用:未来需要用 AI 原生思维重构所有业务流程,大模型将催生全新的 AI 原生应用形态。
二、为什么 To B 大模型会成为下一个风口?
1. 通用大模型的能力限制
当大模型发展到一定阶段,企业发现原始数据里若没有行业数据,通用大模型对行业的理解仍存在局限性。其通用能力无法承载更为专业的 To B 需求。企业在自己擅长的行业训练适合自己的行业版大模型,这类模型生成的内容质量更高,更贴合业务。
2. 成本优势
通过通用大模型微调实现的行业大模型,相较通用大模型是几何级别的成本下降。在模型微调阶段,由于训练量级较小(通常为万级),相关的算力成本相比之下可忽略不计。这使得中小企业也有机会参与行业大模型的构建。
3. 市场结构与云部署模式
中国数字化市场不像美国以公有云为主,而是公有云、混合云、私有云并存。这种分叉延续到了 AI 模型市场,定制化/私有化需求会占据较大比重,尤其在政府、金融、制造等对数据安全敏感的市场。
4. 信息安全考量
当前在海外市场,部分政府、金融机构、电信运营商、制造企业甚至科技公司已经明确禁止或限制员工在工作场合使用公共大模型产品。理由通常是担心专利或机密资讯泄密、客户资料外流。因此,私有化部署成为刚需。
三、To B 大模型的主要挑战
尽管打造行业大模型的门槛和成本大大降低,但仍面临显著挑战。
1. 开源大模型的质量差距
行业大模型是在通用大模型基础上进行微调训练或通过提示词工程得到的。基于大多企业私有化部署的需要,私有化部署的通用大模型有三种实现方式:直接引入开源大模型、购买商业化大模型、基于行业数据微调开源大模型。但根据测试判断,当前的各种开源大模型离 OpenAI 的 GPT-3.5 还有相当大的差距。基于这些开源大模型打造的行业大模型基本不可用,同时微调领域大模型需要企业有较高的技术能力,这进一步抬高了行业大模型的门槛。
2. 缺乏高质量的行业数据
大模型强调垂直领域的 Know-How,基础是行业大数据。在质量方面,要求行业数据具有权威性;在规模方面,要求保证质量的前提下,训练数据量越大,推理能力越强;在多样性方面,要求训练数据集尽可能丰富、全面;在及时性方面,要求实时更新的数据尽快得到利用。
很多传统企业或数字化刚起步的企业,大量语料数据都是非结构化的,散落在各个不同部门,没有什么现成的行业语料数据可供训练。行业数据的记录、盘点、采集、清洗和转化成为了前提条件,这实际上考验着企业的数据治理水平。如果贸然将未经筛选和处理的数据直接给大模型,则会严重影响行业大模型的训练效果。
3. 缺乏快速落地的硬场景
现在搞行业大模型的厂家一个接着一个,但就目前来看,大多其实都还停留在讲概念、讲技术的阶段。要做好行业大模型,企业一方面要能找到合适的业务场景,从逻辑上讲,行业大模型一定会是在精度相对较低、容错率较高的行业先引用,再到精度要求高的地方去。另一方面还需整合 AI、数据、技术等关键生产要素,这非常考验企业对大模型的认知水平、技术能力和组织能力。
四、To B 大模型的实现路径
在当下的情况下,出于对成本、进入门槛和速度等的考虑,'开源大模型 + 自研小模型 + 垂直语料'大概率会成为接下来一个行业大模型的实现路径。
方案一:RAG(检索增强生成)
基于开源大模型做行业大模型的企业,在尽可能跟市场上这些开源大模型结合的同时,也要解耦。第一种方案是用提示词的形式来对接,耦合度很低,随便换一个模型,一下就能换掉。例如 ChatGLM+LangChain 的方案,共分为五步:
- 搜集领域数据:把领域的相关文档资料进行收集,并转成文本文件。
- 切分领域文本:把领域内容拆成一块块的小文件块,因为我们希望只向大模型传递最小的、最相关的文本块。
- 创建嵌入文本:为每一块文本创建嵌入,并将它们存储在一个向量数据库中。这样就可以使用这些嵌入来查找与问题最相关的文本块。
- 查找嵌入文本:这个时候就可以接受行业输入了,即 Query,将这个问题转化成词嵌入的向量,然后查询前面的领域向量数据库,找到最相似的 K 个向量和对应的 K 个文本块。
- 调用大模型回答:将 K 个相关的文档和问题作为上下文输入大模型,大模型就可以生成了一个结合了上下文的回答。
以下是一个简化的 Python 伪代码示例,展示 RAG 的基本流程:
from langchain.vectorstores import Chroma
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.llms import HuggingFacePipeline
embeddings = HuggingFaceEmbeddings(model_name="text2vec")
vector_store = Chroma(persist_directory="./db", embedding_function=embeddings)
llm = HuggingFacePipeline.from_model_id(
model_id="THUDM/chatglm3-6b",
task="text-generation",
pipeline_kwargs={"max_new_tokens": 512}
)
query = "如何申请贷款?"
docs = vector_store.similarity_search(query, k=3)
context = "\n".join([doc.page_content for doc in docs])
prompt = f"基于以下信息回答问题:{context}\n问题:{query}"
response = llm(prompt)
print(response)
以上方法不需要对大模型做任何变更,仅通过构建与问题相关的上下文来直接调用大模型,大模型再结合以前训练的知识库去做归纳、总结、推理,这是一种非常轻量化的实现方法。
方案二:Fine-tuning(微调)
第二种方案是基于行业数据对大模型进行 Fine-tuning,这样做的代价比较大,因为 Fine-tuning 会尝试优化所有的参数,还可能导致模型过多的拟合。目前主流采用 LoRA (Low-Rank Adaptation) 或 QLoRA 技术来降低显存占用和训练成本。
方案三:MaaS(模型即服务)
第三种方案则是引入第三方模型服务,即 MaaS。由于以上两种方法对企业的技术能力都有较高的要求,因此可以尝试借助外部力量。当前很多企业都把 MaaS 当为了行业大模型的新赛道。企业可以在这些内置行业大模型基础上,加入自己独有的场景数据,快速生成自己的专属定制大模型。MaaS 同时也提供了大模型工具链和配套服务,包括数据标注、训练、测试、评估、部署等全套工具,助力企业快速精调大模型。
五、To B 大模型的发展策略及趋势
1. 强化顶层设计与生态建设
应该强化顶层设计,加强统筹协调和系统布局,加快构建政产学研用的良性互动创新生态。要推动项目、基地、人才、教育等各类政策相互协调配合,更好地发挥作用。
2. 基础设施化
大模型最终会成为未来社会的一种基础设施,其提供'智力'能力,输送给千行百业和千家万户。因此,人工智能进入大模型时代之后,会形成一个体系化的产业生态。未来的 AI 2.0 时代会有三大生态层:基础模型层、中间层和应用层。
3. 构建全栈式平台
企业需要构建下一代云化的数字平台,一个从算力开始往上管理的全栈式的混合云企业级人工智能平台。这有助于解决 AI 训练的算力成本挑战、安全与可信 AI 的挑战、技能与文化的挑战等等。
4. 借鉴成熟方法论
IBM 提出的人工智能阶梯 (AI Ladder) 的方法,从数据的收集、组织、分析、融合四个步骤为企业规模化部署 AI 奠定基础等对我们应该有所借鉴。企业也许应该成立一个大模型部门来专门推进,尽快在具备刚需的应用场景落地,形成自我造血的良性循环,不断自我进化、修正和完善。
六、结论
未来能把行业大模型搞成功的,一定是那些拿到了高质量的领域数据,找到了最刚需业务场景的企业,就可以抽象成行业大模型,从而找到对外商业化的机会。通用大模型作为行业大模型的基础,虽然很重要,但未来一定是基础设施般的存在,不会成为企业大模型的胜负手。企业应聚焦于自身核心数据的资产化与场景化,利用大模型技术重塑业务流程,方能在 AI 2.0 时代获得持续竞争优势。