重新思考工作:专业人士如何使用大模型?
自 2022 年 11 月 OpenAI 发布 ChatGPT 以来,人们对生成式人工智能(GenAI)的兴趣激增,同时也对其安全性表示担忧。生成式人工智能是指利用 AI 生成文本、图像、音乐、音频、视频等内容的技术,而大模型通常是指训练这些生成式 AI 的庞大且复杂的神经网络模型。
生成式人工智能正在深刻改变医学、法律、金融等专业领域的工作模式。文章提出专业工作的核心包含诊断、推理和治疗三个环节,并分析大模型如何在这些环节中发挥作用。目前大模型在诊断环节表现突出,正逐步向推理和治疗延伸。尽管存在培训影响、质量评估和人机交互复杂等挑战,但通过人类反馈强化学习和合理的依赖平衡,专业人士可以有效利用大模型提升效率。未来需要建立新的质量度量标准,避免过度依赖或忽视算法风险,由专业人士主导人机协作的演进方向。实施建议包括建立验证工作流、持续学习技能升级以及保护知识产权与数据安全。

自 2022 年 11 月 OpenAI 发布 ChatGPT 以来,人们对生成式人工智能(GenAI)的兴趣激增,同时也对其安全性表示担忧。生成式人工智能是指利用 AI 生成文本、图像、音乐、音频、视频等内容的技术,而大模型通常是指训练这些生成式 AI 的庞大且复杂的神经网络模型。
鉴于这一转折点,我们必须重新关注生成式 AI 对专业人士工作的影响。这是因为与早期的 AI 相比,生成式 AI 更接近专业人士的核心工作内容,即为客户提供诊断和治疗。然而,专业人士的工作将如何以及多快改变,尚不清楚。与其让这个问题成为'意外后果'的一部分,我们可以主动影响生成式 AI 如何融入专业人士的工作。
各个领域的专业人士,例如医学、审计、会计、法律和数据科学等从业者,工作内容本质上都是进行诊断和治疗,并通过推理将两者连接起来。简单来说,专业人士对问题进行分类(诊断)、进行推理(推理)并采取行动(治疗)。
目前为止,大模型已经影响了专业人士的所有工作,但主要是诊断环节。例如,在放射学中分析医学数据;在尽职调查中,分析财务和法律数据。生成式 AI 正在向影响专业人士所有工作环节迈进。这既令人兴奋,也对专业人士的工作构成挑战。
本文首先解释专业人士的工作内容。然后,重点放在生成式 AI 及其在专业工作中的使用案例。最终提出解决大模型比专业人士做得更好的关键问题,以及如何使用大模型。大部分人机交互方式由专业人士自己掌握。
专业人士(也称知识工作者)以思考谋生。他们利用专业知识和批判性思维创造价值。其中一部分人,即专业人士的工作内容,因时间地点、行业领域不同,有所不同。
但不同领域的专业工作都有三个环节:诊断、推理和治疗。以医生为例,在诊断环节,医生询问病人的问题并进行检查,以诊断患者的症状。在推理环节,医生利用医学知识得出解决方案。在治疗环节,医生开药和/或进行手术。
其他领域的专业人士的工作,基本也包括这三个环节。
诉讼律师可能首先进行诊断(诊断案件中的相关事实),运用法律知识推导出最好的辩论方式(推理),并在法庭上代表客户辩解(治疗)。
投资银行家帮助他们的客户在尽职调查中收集相关财务信息(诊断),然后使用他们的财务知识(推理)推荐并购的最佳财务结构(治疗)。数据科学家清理和探索数据(诊断),构建模型进行分析和解释(推理),然后为特定受众呈现数据分析结果(治疗)。
在所有这些专业背景下,连接诊断和治疗的推理,基于具有理论和实践成分的专家知识。一位医生之所以优秀,不仅因为她在一流的医学院学习,还因为在多年的实践中,她从病人案例中改进她的诊断和治疗。
专业工作中的熟练表现,不仅取决于正式培训期间获得的理论知识,还取决于难以或无法完全表达的隐性知识和直觉。
正如多面手迈克尔·波兰尼所说:'我们知道的比我们能说的要多。'就像骑自行车、在水中保持浮力和拉小提琴一样,隐性知识在许多专业判断方面都是必不可少的。大模型虽然能处理海量显性知识,但在捕捉这种微妙的隐性知识方面仍存在局限。
《通信》的读者不需要提醒,就知道生成式 AI 激增背后的技术进步。特别是发现了一种基于纯粹注意力机制的网络架构 Transformer,完全摒弃了递归和卷积。借助巨大的计算能力和大数据,大模型可用于生成基于文本的数据。
运用生成式 AI 的案例不断增多,包括知识检索、临床决策支持以及在医学中总结关键发现;法律研究以及生成合同和其他文件,如生成法律陈述摘要;以及在数据科学中共同编写代码。
许多使用案例,需要专业人士同时使用多种工作技能才能完成。例如,在审计和会计中,大模型可能会标记异常和税法不合规的实例。这只是诊断到治疗的一小步,不合规实例可能会被提前阻止。
提示词工程也让得诊断和治疗同时发生更有可能,例如在健康管理中自我诊断和自我护理。通过精心设计的 Prompt,用户可以直接获得初步的治疗建议,但这仍需专业复核。
在医疗领域,大模型可以辅助阅读病历,提取关键指标,甚至预测疾病风险。但在确诊阶段,人类医生的经验判断依然不可替代。在法律领域,AI 可以快速检索判例法,对比类似案件的判决结果,帮助律师制定诉讼策略。在金融领域,AI 能够实时监控市场波动,识别潜在的投资风险点。
尽管大模型仍处于初级阶段,但一些模式正在浮现——如何在有或没有人类参与的情况下,提高生成式 AI 的性能,超越人类。
首先,在比较大模型和人类的能力时,随着模型版本的更新,差距正在缩小。具体来说,GPT-3.5 已经通过了医学、法律和商学院的考试,尽管表现平平。GPT-4 在通过律师资格考试方面做得更好,并且有机会通过金融专业人士的 CFA 考试。
虽然 GPT-4 在完成各种考试的定量分析部分还有不少挑战,但这可以通过使其具备执行 Python 代码的能力来解决。通过考试,就像检测非常小的癌症肿瘤一样,是提高准确性的问题,AI 可以做得很好。
其次,由专业人士参与人类反馈强化学习(RLHF)训练的领域,特定大模型的性能优于仅在通用文本语料库(如维基百科)上训练的大模型。
例如,在法律领域,汤森路透的 WestLaw Precision 和 LexisNexis 的 Lexis+ 由领域专家——这些案例中的律师提供支持。RLHF 也可以用于进一步训练通用大模型。例如,Allen & Overy 律师事务所用公司内部律师的数据集训练了 GPT-3.5 模型,律师的和大模型的对话被保留在事务所内。
这种垂直领域的微调显著提升了模型在特定任务上的准确性和专业性,减少了幻觉现象。
尽管如此,我们还没有足够的证据证明生成式 AI 对工作质量的影响。一方面,专业人士还刚开始尝试使用生成式 AI,另一方面专业培训、行业规范和不同级别员工工作分配问题,还未得到妥善解决。
这引发了更多问题。
首先,考虑生成式 AI 对专业培训的影响。有证据表明,经验较少的专业人士比经验丰富的专业人士更能从 GPT-4 的建议中受益。例如,使用协助编程工具生成代码,就像拥有一个私人教练助你成为数据科学家。
但这是否会促进初级专业人士使用生成式 AI 加速专业技能培训,形成一个良性循环?或者,在职业生涯早期,使用生成式 AI 会导致跳过重要的探索,包括从中学习错误?如果过度依赖 AI 生成答案,初级人员可能失去独立思考和解决问题的机会,导致长期能力退化。
其次,专业人士非常关心工作质量。然而,有令人担忧的证据表明,专业人士倾向于将生成式 AI 当成工作质量降低的来源。难道生成式 AI 不应该使专业人士能够以较少的时间,达到相同的工作质量吗?
这个问题的难点是,如何评估专业工作质量,特别是当质量不仅仅体现为准确性时。例如,要求文档摘要应该完整和有细节。此外,在创造性活动中,ChatGPT 能够生成大量新颖的想法,尽管质量参差不齐。
但有证据表明,在创造性思维任务中,最优秀的人类仍然超过 ChatGPT。人类的创造力往往源于情感体验和生活阅历,这是当前 AI 难以模拟的。
第三,人机交互仍然复杂,并且随着机器性能的提高而变化。有证据表明,当经验丰富的专业人士判断输出的准确性不够高时,他们倾向于忽略机器的建议。与此同时,获得高质量 AI 的帮助,会使工作者减少思考,这是一种'在方向盘后睡着'或'在键盘前睡着'的状态。
因此,令人惊讶的是,要想从人机互动中受益,可能需要的人工智能质量比技术上可实现的要低。这就引出了一个问题:在验证和解释大型模型的输出时,我们应该如何找到对人工智能依赖度的最佳平衡,既不过度依赖也不过分减少依赖?我们怎样确保专业人士在使用'自动完成'辅助工具时,仍然保持必要的警觉性?
为了应对上述挑战,专业人士和组织需要采取积极的措施。
不能盲目信任 AI 的输出。必须建立严格的验证工作流。对于关键决策,应实行'双人复核'制度,一人使用 AI 辅助,另一人进行独立审查。特别是在医疗诊断和法律判决中,AI 只能作为参考意见,最终决定权必须在人类手中。
专业人士需要不断更新自己的知识库,了解 AI 的能力边界。学习如何编写高质量的提示词(Prompt Engineering)已成为新的必备技能。同时,要加强对 AI 伦理的学习,理解算法偏见、数据隐私等问题。
在使用外部大模型服务时,务必注意数据隐私。不要将敏感的客户数据、商业机密上传到公共模型中。企业应优先考虑私有化部署或经过安全认证的专用模型服务。同时,针对 AI 生成内容的版权归属问题,行业需要尽快出台明确的法律法规。
在全球经济中,生成式 AI 被预测每年能增加 2.6 万亿至 4.4 万亿美元的价值。
这篇文章将专业人士的工作分为三个部分:诊断、推理和治疗,并指出生成式 AI 不仅改变了这些工作模式,还使得这些模式能够同时进行,从而彻底改变了咨询行业的运作方式。
例如,监管建议和合规性检查可以一体化进行,就像医疗领域的自我诊断和治疗一样。
专业人士正在积极塑造人类与人工智能之间的互动方式。例如,好莱坞的剧本作者成功地对抗了人工智能生成内容的滥用;而针对 Github 的 Copilot 和 OpenAI 的 Codex AI 程序,正在审理一些涉及版权侵权的法律案件。
然而,我们需要超越对知识产权的担忧,关注影响所有专业人士的实际问题:在当前技术环境下,如何验证机器输出,以避免过度依赖或忽视算法的风险?
在评估人工智能输出时,除了数据科学的准确性度量外,我们还能开发出哪些质量度量标准?
随着人工智能性能的提升,是否存在一个'不完美'的性能水平,比如在道路运输中设定速度限制,能让人类专业人士感到最满意并激励他们保持良好表现?
专业人士应该在解决这些问题上发挥领导作用,以造福社会和自身。未来的工作不是人与 AI 的竞争,而是人与 AI 的协作。只有掌握驾驭 AI 的能力,才能在智能时代保持核心竞争力。
生成式 AI 的到来不可逆转。它既是工具也是伙伴。专业人士应当拥抱变化,利用 AI 提升效率,同时坚守职业底线,确保技术服务于人类福祉。通过不断的实践、反思和调整,我们将找到人机协作的最佳路径,开启专业工作的新篇章。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online