自 2022 年 11 月 OpenAI 发布 ChatGPT 以来,人们对生成式人工智能(GenAI)的兴趣激增,同时也对其安全性表示担忧。
译者注:生成式人工智能,即用 AI 生成文本、图像、音乐、音频、视频等。大模型通常是指训练这些生成式 AI 的庞大且复杂的神经网络模型。
鉴于这一转折点,我们必须重新关注生成式 AI 对专业人士工作的影响。这是因为与早期的 AI 相比,生成式 AI 更接近专业人士的核心工作内容,即为客户提供诊断和治疗。
然而,专业人士的工作将如何以及多快改变,尚不清楚。与其让这个问题成为'意外后果'的一部分,我们可以主动影响生成式 AI 如何融入专业人士的工作流程。
专业人士的工作内容
专业人士(也称知识工作者)以思考谋生。他们利用专业知识和批判性思维创造价值。其中一部分人,即专业人士的工作内容,因时间地点、行业领域不同,有所不同。
但不同领域的专业工作都有三个核心环节:诊断、推理和治疗。
以医生为例:
- 诊断环节:医生询问病人的问题并进行检查,以诊断患者的症状。
- 推理环节:医生利用医学知识得出解决方案。
- 治疗环节:医生开药和/或进行手术。
其他领域的专业人士的工作,基本也包括这三个环节:
- 诉讼律师:首先进行诊断(诊断案件中的相关事实),运用法律知识推导出最好的辩论方式(推理),并在法庭上代表客户辩解(治疗)。
- 投资银行家:帮助他们的客户在尽职调查中收集相关财务信息(诊断),然后使用他们的财务知识(推理)推荐并购的最佳财务结构(治疗)。
- 数据科学家:清理和探索数据(诊断),构建模型进行分析和解释(推理),然后为特定受众呈现数据分析结果(治疗)。
在所有这些专业背景下,连接诊断和治疗的推理,基于具有理论和实践成分的专家知识。一位医生之所以优秀,不仅因为她在一流的医学院学习,还因为在多年的实践中,她从病人案例中改进她的诊断和治疗。
专业工作中的熟练表现,不仅取决于正式培训期间获得的理论知识,还取决于难以或无法完全表达的隐性知识和直觉。
正如多面手迈克尔·波兰尼所说:'我们知道的比我们能说的要多。'就像骑自行车、在水中保持浮力和拉小提琴一样,隐性知识在许多专业判断方面都是必不可少的。
生成式 AI 的使用案例
《通信》的读者不需要提醒,就知道生成式 AI 激增背后的技术进步。特别是发现了一种基于纯粹注意力机制的网络架构 Transformer,完全摒弃了递归和卷积。借助巨大的计算能力和大数据,大模型可用于生成基于文本的数据。
运用生成式 AI 的案例不断增多,包括:
- 知识检索:临床决策支持以及在医学中总结关键发现。
- 法律研究:生成合同和其他文件,如生成法律陈述摘要。
- 数据科学:共同编写代码。
许多使用案例,需要专业人士同时使用多种工作技能才能完成。例如,在审计和会计中,大模型可能会标记异常和税法不合规的实例。这只是诊断到治疗的一小步,不合规实例可能会被提前阻止。
提示词工程也让得诊断和治疗同时发生更有可能,例如在健康管理中自我诊断和自我护理。
我们所了解的现状
尽管大模型仍处于初级阶段,但一些模式正在浮现——如何在有或没有人类参与的情况下,提高生成式 AI 的性能,超越人类。
首先,在比较大模型和人类的能力时,随着模型版本的更新,差距正在缩小。具体来说,GPT-3.5 已经通过了医学、法律和商学院的考试,尽管表现平平。GPT-4 在通过律师资格考试方面做得更好,并且有机会通过金融专业人士的 CFA 考试。
虽然 GPT-4 在完成各种考试的定量分析部分还有不少挑战,但这可以通过使其具备执行 Python 代码的能力来解决。通过考试,就像检测非常小的癌症肿瘤一样,是提高准确性的问题,AI 可以做得很好。
其次,由专业人士参与人类反馈强化学习(RLHF)训练的领域,特定大模型的性能优于仅在通用文本语料库(如维基百科)上训练的大模型。
例如,在法律领域,汤森路透的 WestLaw Precision 和 LexisNexis 的 Lexis+ 由领域专家——这些案例中的律师提供支持。RLHF 也可以用于进一步训练通用大模型。例如,Allen & Overy 律师事务所用公司内部律师的数据集训练了 GPT-3.5 模型,律师的和大模型的对话被保留在事务所内。
我们尚未了解的问题
尽管如此,我们还没有足够的证据证明生成式 AI 对工作质量的影响。一方面,专业人士还刚开始尝试使用生成式 AI,另一方面专业培训、行业规范和不同级别员工工作分配问题,还未得到妥善解决。


