知识工作者如何看待生成式人工智能不会改变其行业[人机交互A会CHI]

知识工作者如何看待生成式人工智能不会改变其行业[人机交互A会CHI]

知识工作者如何看待生成式人工智能不会改变其行业   作者:、、、、和

抽象的  生成式人工智能有望在多个知识产业中产生变革性影响。为了更好地了解知识工作者对生成式人工智能未来可能如何影响其行业的预期,我们针对七个不同行业开展了参与式研究研讨会,共有来自美国三个城市的 54 名参与者。我们描述了参与者对生成式人工智能影响的预期,其中包括贯穿各组讨论的主导叙述:参与者大多将生成式人工智能设想为一种在人工审查下执行琐碎工作的工具。参与者通常不会预料到目前在普通媒体和学术叙述中预测的知识产业将发生颠覆性变化。然而,参与者确实设想生成式人工智能可能会放大目前塑造其行业的四种社会力量:技能降低、非人性化、脱节和虚假信息。我们描述了这些力量,然后提供了有关特定知识产业态度的更多细节。最后,我们讨论了人机交互社区的影响和研究挑战。

1 简介    2022 年 11 月 30 日,OpenAI 发布了 ChatGPT 的演示,这是一个由大型语言模型 (LLM) 驱动的聊天机器人。聊天机器人令人印象深刻的交谈和提供信息的能力立即引起了国际关注,短短几天内就吸引了超过一百万用户 [ ]。虽然 LLM 已经积极开发了好几年,并且建立在已经研究和使用了几十年的技术之上,但 ChatGPT 的发布被誉为一个颠覆性的时刻,普通民众和许多技术专家都意识到了人工智能能力的重大飞跃。     此后,ChatGPT[ ]、Bard[ ]、DALL·E[ ]、Imagen[ ]和Midjourney[ ]等生成式人工智能系统迅速普及,并带来了一些引人注目的叙述。其中包括对其执行复杂任务能力增强的讨论,以及对生成式人工智能将如何颠覆知识产业(如法律、新闻、软件开发等行业,这些行业中的劳动者运用通过专门培训获得的知识来解决非常规问题并开发产品和服务[ ])的预测。这些叙述将生成式人工智能想象成一种资源,它可以自动化目前由人类完成的大部分知识工作,从而对劳动力产生不利影响,例如导致多个行业中大量工作岗位消失[ ]。然而,虽然初步证据表明生成式人工智能用于特定任务时生产率会提高[ ,但其未来影响仍有许多未知数。     生成式人工智能的这一独特发展时刻为深入思考其未来用途提供了及时的机会。为了更好地了解人们如何预期生成式人工智能未来会影响知识工作,我们为七个不同的知识产业举办了三小时的参与式研究研讨会,共有来自美国三个城市的 54 名参与者。我们的贡献如下:     •         我们提出了一项新颖的定性研究,研究了广告、商业通讯、教育、新闻、法律、心理健康和软件开发等七个专业领域的知识工作者对生成式人工智能未来可能影响其领域的预期。具体来说,我们不仅探讨了知识工作者对特定任务或工作如何实现自动化或以其他方式发生变化的看法,还探讨了生成式人工智能如何以及是否会更广泛地改变其行业的工作性质和结构。      •         我们描述了多个知识产业的参与者对生成人工智能的设想的主流叙述,即将生成人工智能作为在人工审查下执行琐碎工作的工具,并且我们还强调了每个产业的独特观点。      •         我们描述了参与者在其行业中经历的特定社会力量(与生成式人工智能的发展同步)如何创造一种独特的环境融合,这些环境构成了参与者对生成式人工智能影响的期望,因为它与其部署和使用周围的社会趋势相交。这些力量包括技能降低、非人性化、脱节和虚假信息。      •         根据参与者的见解,我们确定了生成式人工智能和知识工作交叉领域的五个人机交互研究挑战。        在本文的其余部分,我们回顾了相关背景,描述了我们的方法,展示了我们的发现,讨论了对人机交互社区的影响和研究挑战,并得出结论。

2 背景    我们的研究考察了知识工作者对生成式人工智能将如何影响其领域的看法。在本节中,我们将介绍生成式人工智能技术和知识工作的背景以及它们交叉领域的研究,并概述生成式人工智能的叙述以及公众对人工智能的看法。

2.1 生成式人工智能模型    生成式人工智能是一种机器学习系统,可根据输入生成逼真、可信的类人内容(如文本、图像、代码、音频)。这些系统在网络规模的数据库上进行训练,不同于旨在充当专家系统的传统机器学习 (ML) 系统,这标志着 ML 的用途从“解决问题到发现问题”的转变 [ ,第 1 页]。生成式人工智能的概念可以追溯到 20 世纪 50 年代,当时研究人员开始探索使用计算机制作新内容的可能性 [ ]。然而,直到 20 世纪 90 年代和 21 世纪,随着对神经网络(处理和识别大数据集中的模式的互连节点)的进一步投入 [ ] 机器学习领域才获得了发展动力。“深度学习革命”的开始 [ ,第 1 页]。 2014 年,Alex Krizhevsky 及其同事 [ ] 使用深度神经网络赢得了 ImageNet 图像分类挑战赛,这标志着人工智能技术取得了重大突破。此后,研究人员开发出了能够生成新内容的新型神经网络,包括生成对抗网络 [ ]、循环神经网络 (RNN) [ ]、变分自编码器 (VAE) [ ] 和扩散生成模型 [ ],这些技术进步为生成式人工智能的发展奠定了基础。   ]的开发,该架构实现了 并行化,即将计算划分为多个同时运行的小任务。Transformer 架构能够生成详细而逼真的内容,在一系列生成任务中仍处于领先地位,包括文本[ , ]、图像[ , ]和代码生成[ ];并支持在海量数据集上训练的“基础模型”,如 LaMDA [ ]、GPT [ ] 和 DALL·E [ ]。生成式人工智能领域正在迅速发展;然而,大型语言模型(例如 ChatGPT [ ]、Bard [ ]) 和文本到图像模型(例如 Midjourney [ ]、DALL·E 2 [ ]、Stable Diffusion [ ])是当今流行的模态。大型语言模型处理和生成文本,可用于各种应用,包括问答交互、语言翻译、聊天机器人、代码和文本生成、摘要和语言分析。文本到图像 (T2I) 系统允许用户从自由形式和开放式文本提示生成逼真的图像。虽然模态不同,但生成式 AI 系统具有三个关键特征:(1) 适用于通用用例而非专门用例;(2) 生成通常与人类内容难以区分的原创内容;(3) 界面直观且易于访问 [ ]。

2.2 知识工作    知识工作 涉及专业化劳动,其主要资本是知识[ ];知识工作者运用通过专业培训获得的理论和分析知识来从事非常规问题解决并开发产品和服务[ ,第878页]。知识工作是后工业社会的一个特征[ ],其中资本主义生产转向技术知识[ 。通过这种方式,知识工作反映了社会经济和政治权力重新集中到将信息资源转化为可销售商品和服务的机构中[ ]。因此,知识工作将工人重新定义为“资本资产”,并将生产力的责任放在个体工人身上,他们有自主权来决定如何在特定界限内完成特定任务[ ,第87页]。知识工作者最显著的特征是他们拥有“知识”,而不一定是完成教育计划[ ],尽管某些角色或领域可能需要执照或证书(例如律师、医学)。因此,知识工作包括使用信息、数据或想法作为“原材料”来“规划、分析、解释、开发和创造产品和服务”的职业[ ,第 511 页]。

2.3 生成式人工智能与知识工作的未来    生成式人工智能能够让用户在通用用例中轻松生成新内容,这引发了人们对其对知识型劳动力的潜在宏观经济影响的疑问[ ]。与之前许多影响制造业或运输业等体力劳动的创新不同,生成式人工智能直接影响专业化的知识型工作[ ]。关于这个主题的讨论形成了一种 变革性 叙事——我们将在第 节进一步讨论这种叙事——这表明生成式人工智能将对知识型产业产生重大影响。例如,Briggs 等人[ ]确定了 13 种易受自动化影响的知识型工作活动(如收集、组织、分析和解释信息),并估计大约三分之二的美国职业可能会面临员工工作方式的颠覆。鉴于生成人工智能领域的快速变化,还需要更多的研究,但新兴的研究表明,生成人工智能可能会在创意工作[ 50 、客户服务[ ]、教育[ ]、医疗保健[ ]、新闻业[ ]、法律服务[ ]、市场营销[ 、管理咨询[ ]和软件工程[ ]等领域带来颠覆。新手员工可能会从特定工作任务的效率提高中获益匪浅[ ]。例如,在客户服务岗位上引入生成人工智能对话助手提高了员工的生产率,而新手客服人员的表现也会得到不成比例的提升[ ]。经济学家预计,正在经历大规模自动化的职业将被新创造的就业岗位所抵消[ ],比如审查和管理生成人工智能系统创建的内容的新岗位[ ]。然而,需要在休闲变革管理方面进行适当的投资[ ],包括了解工人的观点,这一目标直接指导了我们的研究。

2.3.1 生成式人工智能对工人任务的影响。    人机交互学者开始研究生成式人工智能对不同类型工作任务的影响。主要的研究线索集中在不同的写作任务上[ 73、149、160、164、188、190 , 口号[ ]和讲故事[150]。生成式人工智能系统可以显著影响用户撰写的主题和框架[91]。例如,当人们使用生成式人工智能写作助手(如 ChatGPT)时,他们会更频繁地撰写系统建议的主题[ ]。 人工智能系统 建议还会影响交流的语气和情绪[ ,包括文本的长度和通用性[ 。然而,生成式人工智能系统的用户体验不仅仅是被动的,还涉及认知工作以协商机器在环写作方法[ ]。由于创造性工作不一定以结果为中心,而是以过程为中心,我们对生成性人工智能在明确商品化的劳动力环境中的影响的理解仍然存在差距。   集中于生成人工智能对专业环境中的工作者的潜在影响,研究生成人工智能对专业的潜在影响,包括它如何提高知识工作者的任务效率[7,193]。一些人机交互研究考察了生成人工智能对 专业领域的影响,特别是创意领域[ 51,79,89 ] 教育领域[ ] 研究表明,总体 创意专业人士尚不担心生成人工智能导致的工作流失,但他们确实提到了与工作质量下降、创意过程的侵蚀以及训练数据版权问题相关的担忧[ 89 。在教育领域,研究主要集中于生成人工智能如何在准备课程材料[ ]和学生学习成果[ 人机交互研究仍然很少,特别是在创意环境之外的领域。

2.4 耸人听闻的生成式人工智能叙事    随着生成式人工智能系统的迅速普及, 人们 开始 夸大其词  ,认为它将如何颠覆社会和工作。在先前的人工智能叙事基础上,这种叙事包含了一些戏剧性甚至夸张的主张(参见批评:[ ]),涉及人工智能感知(例如 [ )和劳动力替代(例如 [ ])。人工智能领域的领军人物用一些富有启发性的术语表达了对人工智能的期望(例如 [ ]),例如,将人工智能比作“新电力”,以强调人工智能将颠覆大多数或所有行业的预期 [ ]。媒体、未来学家和其他人士也在探索生成式人工智能的潜力,比如思考人工智能是否可以“取代人类”[ ]。关于机器智能的夸大其词是,全球人类底层劳动者将被生成式人工智能取代 [ ],其中一个标题是:“ChatGPT 能帮我写书、养活我的孩子吗?”[ ]。虽然此类叙述可能借鉴了人工智能开发人员的说法,以预测知识工作的最坏情况(例如 [ , ]),但它们往往以误导性的方式纳入证据(参见批评:[ , ])。此外,他们很少听取具有领域专业知识的知识工作者的观点。     尽管一些人认为,生成人工智能正处于过度预期的顶峰[ ,但耸人听闻的人工智能叙事可能会缩小和结束公众辩论[ ]。为了应对炒作周期[ ],有人呼吁进行更加慎重的叙事,为公众创造空间,让他们能够有意义地思考和应对生成人工智能的劳动力问题[ 。这包括考虑生成人工智能与不同类型的专业工作互动的具体方式[ 96 ] 以及更广泛的知识产业动态。

2.5 公众对人工智能的认知    由于公众对生成式人工智能的认知才刚刚开始,因此关于公众对其看法的研究很少。然而,已经有大量研究对公众对人工智能的普遍看法进行了研究,其中很多是基于调查的 [ 8、15、24、38、60、69、97、113、128、131、142、158、170、189、192 。 者通常 产生 影响,并且往往预测可能产生有益影响,其中 市场 或 市场对人工智能的 最为 美国等西方国家 是最近)[ ] 。与此同时,人工智能既不能被理解为完全有利,也不能完全是不利的,公众的反应往往表现出矛盾的情绪 [ , , , ]。失业(特别是与机器人和制造业相关的失业)、社会孤立感增加、隐私和其他社会话题已成为主要担忧 [ , , , , , , ]。事实上,皮尤研究中心最近的一项调查发现,在 37% 的美国受访者表示他们对人工智能在日常生活中的日益存在“更担忧而非兴奋”的情况下,约五分之一的人明确提到失业是他们担忧的主要原因 [ ]。

3 方法论    为了探索生成式人工智能应用在知识产业中的预期影响,我们与来自美国三个城市七个知识产业的 54 名参与者举办了参与式研究研讨会。虽然我们的机构没有 IRB,但我们遵守同样严格的标准。我们的研究目标是进一步了解以下内容:     •         知识工作者预计生成式人工智能将如何影响他们的行业?      •         知识工作者如何看待生成式人工智能与他们预期的行业其他变化的关系?

3.1 参与者    我们通过  Gemic 从 7 个行业中每个行业招募了 7-8 名研讨会参与者(总共 54 名),Gemic 与合作伙伴在每个城市安排了专业的招聘公司。我们的参与者在活动和讨论中扮演着共同研究的角色;在整篇论文中,我们将他们称为“参与者”,并不是暗示他们在研究中扮演被动角色,而是为了避免混淆正式研究人员的贡献和研讨会共同研究人员的贡献。我们选择了广泛的行业——广告、商业通信、教育、新闻、法律、心理健康护理和软件开发,以根据经济分析和行业观点引出可能受到生成式人工智能重大影响的各个领域的不同观点 [ 、 、 、 、 、 ]。每个研讨会大约有一半的参与者担任核心角色,我们预计他们将能够广泛地谈论每个行业,例如教育领域的教师、新闻领域的记者和法律领域的律师。另一半是每个职业中更专业的角色,以引入更多样化的观点。请参阅附录 A,表 筛选还旨在在每个研讨会中招募性别均衡 且一半非白人参与者。所有参与者的报酬均等,符合行业标准。有关参与者信息的摘要,请参阅表 。    表格1:

  參與者 
行业地点n年龄范围性别行业时间
广告纽约市826 – 38女性:42-5岁:2
    男性:46-10岁:1
     10 年以上:5
商业哥伦布824 – 54女性:42-5岁:3
通讯   男性:46-10岁:1
     10 年以上:4
教育奥克兰729 – 51女性:62-5岁:2
    男性:16-10岁:1
     10 年以上:4
新闻学纽约市825 – 42女性:52-5岁:3
    男性:36-10岁:2
     10 年以上:3
法律哥伦布830 – 64女性:42-5岁:3
    男性:46-10岁:2
     10 年以上:3
精神健康奥克兰832 – 50女性:52-5岁:2
    男性:36-10岁:1
     10 年以上:5
软件纽约市725 – 36女子:32-5岁:3
发展   男性:46-10岁:1
     10 年以上:3

表 1:各行业组别的地点和参与者构成详情。性别由参与者通过一系列选项自行报告,包括自我描述。招募仅限于在其行业工作两年或两年以上的参与者。

3.2 研讨会  方法论历史,经常用于参与式设计活动[ 81、109、152、172 、生活实验室[ ]、黑客空间[ ]等。参与式研讨会作为研究场所和方法,其根源在于参与式行动研究[ 44、82 受参与式行动研究的启发,我们使用参与式研讨会与代表知识产业的特定实践社区进行交流 我们之所以采用这种方法,是 是对人机交互中批判理论研究 应用的实践补充(例如,女权主义[ 、酷儿[ 、交叉研究[ 理论研究[ 134,157 ]),其特点是:(1)以受技术影响者的生活经历为中心; ( 的案例中,理解知识工作中生成性人工智能的采用阶段,以探索对社会技术和组织干预可能采取的形式的参与性理解;(3)制定努力缓解研究中不对称权力关系的研究实践。因此,我们在研讨会中融入了一系列活动,包括探索[ 、 、 、 、 ] 和激发活动,以便根据参与者的生活经历和观点,共同设想和反思预期影响,并参与协作讨论和活动,为使用生成式人工智能的未来议程和政策提供信息和塑造。     我们于 2023 年 7 月 在俄亥俄州哥伦布市、纽约州纽约市和加利福尼亚州奥克兰为每个行业举办了一次研讨会(每个城市的行业见表 )。这些城市被选为各自行业的活动中心,并代表社会地理范围。每个研讨会都在第三方设施现场举行三个小时。来自 Google 和 Gemic 的三到四名研究人员主持了每个研讨会,以促进和分享有关生成式 AI 的信息。参与者和研究人员围坐在一张大桌子旁,以促进小组讨论。两名摄像师也参加了每个研讨会,参与者知道有几位研究人员和工作人员在观察室或远程观看。参与者知道 Google 参与了这项研究。我们遵循了 COVID-19 预防措施(例如,所有参与者和主持人在签到时都接受了测试),并在整个研讨会期间提供茶点。作为研讨会开始前的一项简短的准备活动,我们要求参与者绘制他们所在行业的地图,以建立讨论潜在变化的参考(附录 C:图 )。    表 2:

活动时间
  
 15分钟
生成式人工智能教学和问答40分钟
用餐休息20分钟
换卡活动45分钟
休息10分钟
政策活动和投票40分钟
个人影响和总结10分钟

表 2:参与式研究研讨会议程。时间为大概时间。   所示 。我们首先介绍并期望研讨会顺利进行,然后邀请参与者分享之前对生成式人工智能的经验或印象。然后,我们进行了一次演讲,让参与者对生成式人工智能有一个共同的工作理解,为后续活动打下基础,并留出充足的时间进行提问和讨论。演讲简要概述了生成式人工智能模型如何学习和生成内容,它们与其他人工智能模型有何不同,以及生成式人工智能的主要特征和风险(附录 B)。     用餐休息后,我们组织了一场关于潜在行业变化的讨论。我们首先向参与者介绍了一张探测器:一张大型实体卡片,我们称之为 变化卡,鼓励参与者反思未来一到两年内其行业可能发生的重要变化;变化不必与生成式人工智能相关(附录 C:图 )。变化卡使我们能够:(1)通过开放式和封闭式问题,为个人参与者搭建一个关于行业未来的设想过程;(2)通过开放式提示,引发参与者对这些变化的感受的反思;(3)捕捉参与者可以在协作讨论中重新审视和构建的想法。每位参与者大约花 10 分钟填写他们自己的变化卡。然后,我们组织了一场开放式小组讨论,参与者分享了一张或多张变化卡,并回应了彼此的想法。这些以卡片为基础的讨论促成了我们随后与参与者一起分析的更大可能性集,我们将在结果中对此进行报告。     短暂休息之后,参与者讨论并勾勒出指导其行业使用生成式人工智能的政策的大致轮廓(附录 C:图 ),在此期间,我们进一步探讨了他们的期望和态度。参与者再次获得大约 10 分钟的时间进行个人工作,然后在引导式讨论中轮流介绍他们的政策。讨论之后,我们进行了一项练习,让参与者投票选出他们认为生成式人工智能的哪些方面对他们的行业最有帮助和最有害。在对这项投票活动进行简短讨论后,在研讨会的最后几分钟,我们鼓励参与者谈谈生成式人工智能在工作之外的潜在影响。在整个研讨会期间,我们注意鼓励参与者和主持人之间的协作解读、解决问题和讨论,并为所有参与者分享他们的想法和意见留出空间。

3.3 分析    所有会议都经过录音,并通过自动语音转文本服务逐字转录,然后我们根据原始录音手动校正记录稿。所有成果(54 张行业地图、140 张变更卡和 54 项政策)都被收集并存档。我们对更正后的记录稿和成果中的数据进行了归纳分析。借鉴反思主题分析方法 [ , ],四位作者在多种配对和独立审查配置中审查了记录稿,其中一位作者与相应的成果进行了比较。这四位作者进行了深入而长时间的数据浸入和讨论,独立开放式编码然后撰写备忘录以生成主题 [ ],并进行了多轮合作讨论,反思性地比较他们对数据的解释并最终确定主题。

3.4 局限性    在解释这项研究时,应该考虑到我们研究方法的几个局限性。首先,它带有定性方法和小组访谈所伴随的标准问题。我们只在美国三个城市进行了研究,每个行业只有一个小组,我们的小样本在统计上不能代表我们探索的专业领域的角色或人口统计数据。我们的研究结果应该被视为对参与者对其行业观点的深入探索,但不应被视为对其整个行业的概括。其次,我们选择的教学内容和活动虽然适合我们的研究目标,但可能对参与者产生了影响,尽管我们试图通过参与者主导的讨论将任何影响降到最低。最后,虽然我们在会议期间确认了我们对参与者评论的理解,并且一位或多位作者在大多数代表行业都有经验,但我们的解释可能缺乏同一专业类别的成员更容易获得的背景或细微差别。

4 发现    在本节中,我们将介绍我们的研究结果。我们首先描述参与者对生成式人工智能影响的期望,包括各组普遍存在的主流观点。然后,我们讨论四种当前的社会力量,它们塑造了参与者对生成式人工智能将如何影响其行业的看法:技能降低、非人性化、脱节和虚假信息。最后,我们描述了特定知识行业中的一些独特观点。

4.1 生成式人工智能的预期影响    在本小节中,我们概述了参与者对生成式人工智能可能如何影响其行业的看法。4 首先简要总结一下参与者关于生成式人工智能的主导叙述,我们将其称为“ 省力工具 叙述”(见表 )。为了便于比较,我们还分别简要总结了 节和 节中介绍的 变革性 叙述耸人听闻的 叙述。我们引入这些叙述是为了将参与者数据与现存的意义建构话语联系起来,与反身主题分析保持一致 [ ,第 211 页]。在本小节的剩余部分,我们将更详细地描述“ 省力工具 叙述”。    表3:

省力工具 叙述——参与者大多认为,使用生成式人工智能作为工具来执行需要人工审核的琐碎工作是现实且可取的。此外,他们相信可以利用和增强其行业中现有的护栏来执行此类审核。他们预计某些角色将受到影响,但对于大多数行业,他们预计不会发生重大转变或大量工作被淘汰。在大多数情况下,参与者预计变化不会像变革 叙述耸人听闻的 叙述中预测的那样广泛。
变革性 叙事——通常在智库、咨询公司或学术团体的技术报告或同行评审论文中分享,并在一些严谨的新闻报道中得到呼应,这种叙事采用分析方法来论证生成式人工智能将对各行各业、工作和任务产生广泛而实质性的影响。这种类型的工作通常包括预测(例如,可以通过生成式人工智能自动化的任务百分比、受影响的工作数量),概述一系列可能性,但通常会包括此类估计的极高上限。虽然这种叙事并不像耸人听闻的 叙事那样灾难性或夸张,但它通常预测变革。
耸人听闻的 叙事——这是社交媒体和许多新闻文章中的主流话语,这种叙事对生成式人工智能未来将如何改变/取代人类劳动做出了戏剧性甚至夸张的断言。它经常将生成式人工智能与之前的历史创新甚至“大爆炸”进行比较(例如 [  ])。在某些情况下,这种叙事源自人工智能领域的领军人物 [ 变革性 叙事等来源的证据,并强调令人焦虑的最坏情况 [  ]。

表 3:关于生成式 AI 的三种不同叙述的概述。省力工具叙述源自我们对研究数据的分析。我们从现有文献中综合了变革性和耸人听闻的叙述,如第 节和节所述。总体而言,参与者并不接受更广泛的颠覆性叙述,与变革性叙述耸人听闻的叙述中的当前预期相比,省力工具 叙述对预期劳动力影响的看法相当有限。

4.1.1 生成式人工智能可以自动化琐碎工作:“我们只需要大量地完成它。”    虽然我们讨论了各种各样的可能用例,但我们的参与者的经验、想象和偏好集中在使用生成式人工智能完成琐碎任务上。他们将这些任务描述为他们认为可以轻松实现自动化的常规和/或公式化任务,或者他们实际上已经在 ChatGPT 等应用中尝试过的任务,例如起草社交媒体内容、排除故障单、主持引导式呼吸训练课程或制定课程计划。
“对于那些我觉得很乏味、影响全局或影响我实际任务的任务,那些我并不真正关心但我们需要处理的待办事项,ChatGPT 一直都在。” –A1     “我用它来帮助撰写发布说明……我会列出一份非常无聊的更新或功能列表,这些更新或功能并不那么吸引人,然后他们会说,‘让它听起来有趣就行了。’这实际上非常耗时。而生成式人工智能对此非常有帮助。” –S5     “当你必须敲出非常机械的轮廓时,它确实很有用。” –J7     “在律师事务所工作,有些工作成果需要你花很多心思和决策,还需要一定的创造力,才能真正起草出独一无二的作品。我每天要做的其他工作则更加公式化……如果你将 [第一部] 与《公民凯恩》进行比较,那么 [第二部] 更像是《特殊受害者》的一集,你可以在 10 分钟内完成。” –L1     参与者通常热衷于将这些任务交给生成式人工智能,一方面因为这些任务很繁琐,另一方面因为他们觉得节省的时间可以让他们专注于工作中更有意义、更人性化的方面。例如,心理健康专业人士热切地建议生成式人工智能接管记笔记或患者接待等机械工作,从而提高他们的效率,腾出更多时间专注于与客户的人际交往。
“我希望人工智能能以任何方式帮助我们做笔记。这是我最讨厌的工作部分。它太费力了……它占用了我们太多的时间,如果有任何东西可以在这方面为我们提供支持,那就太棒了。我不知道它会怎么做,但如果可以的话,我会高兴得哭出来。” –M1     此外,一些人非常看重扩展和处理大量工作的能力。例如, B6最近在三个月内发送了数十万封电子邮件,并想象生成式人工智能可以提高一致性和速度。
4.1.2 生成式人工智能是一种有用的工具,但需要人工审核:“也许是一个帮手,但肯定不能掌控一切。”    与将生成式人工智能用于繁琐工作的态度一致,参与者主要将生成式人工智能视为人类工作者的工具。例如,一些人指出,生成式“人工智能工具应该协助”员工,但不能“完成”他们的工作。许多人强调,生成式人工智能不应超越工具地位,执行某些类型的知识工作,例如,生成式人工智能不应用于决策、制定战略方向或建立人际关系。     所有小组的参与者都担心生成式人工智能可能会犯错或产生不良输出。例如,广告和商业小组的参与者都担心生成的内容可能会违反品牌标准或版权,律师则表示需要证明法律文件的准确性。一位参与者讲述了一则新闻报道,其中一位律师提交了一份使用 ChatGPT 创建的法律摘要,其中包括“幻觉”案件:
L7:我根本没用过。但我一般对引入新技术有点谨慎。尤其是作为一名诉讼律师,任何时候你向法院提交任何东西,你都要根据我们所谓的规则 11 签署。你要保证它是真实准确的,并且你对所做的一切都有诚意的论据。我想你可能听说过那个 [案例],一个人用人工智能写了他的简报,然后人工智能生成了六个案例,引用了显然根本不存在的意见。这对我来说真是令人难以置信。  L6:如果我能做到这一点,我就会赢得很多案件......  L7:没错。没错。然后这个人,做这件事的律师,他有点像……一个全国性的笑话。     因此,生成式人工智能被视为具有潜在风险,所有群体的压倒性观点是,人类需要检查生成式人工智能的大部分或全部输出,以确保其质量。在某些领域,参与者规定,这种检查必须由律师等合格的专业人员进行。
“人工智能会产生一些东西,然后我们会说是或不是。” –J5     “[生成式人工智能代码] 绝不应该在未经人工测试和审查的情况下投入生产。” –S7     “我们假设的很多问题都源于这样的想法:人工智能可能是一个独立的 [广告] 团队,从头到尾做每件事,并在未经任何人同意的情况下发布广告。我认为这仍然很科幻...” –A3     “我觉得你总是需要某种形式的人类监督,对吧?无论技术有多好,我都不认为人类会被淘汰<笑>。这怎么可能呢?” –A5
4.1.3 现有的行业治理结构适合监督生成性人工智能:“这只是我们已经在做的事情的一部分。”    参与者谈到了新的角色、职责和资格,以加强人类监督并监控生成人工智能在知识工作中的使用和产出。
“训练就像考驾照一样。一旦你掌握了能力并理解了规则,你就可以使用[生成式人工智能]。” –A7(政策)     参与者指出,许多此类监督职能虽然是新职能,但可以很好地融入现有的行业审查结构和政策。例如,律师审查律师助理或初级助理的工作,业务通信需要经过法律和合规审批,软件开发需要代码审查。参与者解释说:
“目前,品牌的声音、语气、风格和一致性都受到监管。任何生成的内容都必须经过批准列表……[有]制衡机制。因此,如果人工智能能够打破这些制衡机制,我会对它帮助传达这一信息感到非常高兴。” –B4     “我们大多数学区已经制定了用户协议,其中讨论了剽窃、仇恨言论和诸如此类的事情。我认为它完全符合我们大多数学区的用户协议。” –E5
4.1.4 某些工作岗位将会缩减,但不会造成大范围的混乱:“许多入门级职位将被取消”,但“我认为治疗师不会消失”。    大多数行业的参与者预计,随着生成式人工智能简化公式化工作,某些工作可能会被淘汰。他们倾向于认为工作风险仅限于特定的入门级工作或有许多机械任务的工作。例如,他们遗憾地强调,服务台、法律助理或产品摄影师等工作面临风险。
“我认为商业工作已经完成了<笑>。商业摄影花费数十万美元,灯光、化妆,所有这些东西。[而且]现在你只需输入它......而不是支付制作费用,人工智能可以弥补这一切。他们不需要片场 99% 的角色。不需要模特、摄影师、化妆师、布景设计师等。摆脱大多数角色是可怕的。” –J6;J6(更换卡片)     许多参与者预计,即使他们所在行业的入门级或类似职位的工人受到影响,他们个人也不太可能受到重大影响,例如,他们有信心,生成式人工智能不太可能在他们自己的职业生涯中取代人类专业人员。虽然有些人确实承认整个行业都有可能发生变化,特别是在软件开发、广告或商业领域,但以下观点通常是例外,而不是常态:
“作为一名传播者,机器人作家的优秀程度令人有些害怕,我知道我们的班加罗尔团队正在考虑雇用机器人或将它们投入使用,而不是雇用人类。因此,作为一名高管,在节省成本方面,这令人兴奋,但作为一名传播者,看到整个行业的记者或主修 [传播] 的人可能在一定程度上被取代,也令人感到害怕。所以,我认为特定的工作、组织、整个行业、世界都会受到影响。” –B4     “由于生成式人工智能的出现,新闻业中的作家可能会开始变得过时……我们可能会被推到次要位置,不再依赖他们来创​​作内容。坦率地说,我非常害怕,并且相信我可能很快就不得不改变职业道路。” –J5(更改卡)     与此同时,参与者对自己的预测以及更广泛的叙述都有些不确定。为了支持自己的推理,他们有时会与其他资源进行类比,例如互联网、谷歌搜索或行业特定数据库,例如法律行业的 LexisNexis。
“我认为某些东西是替代旧工具的工具。这并不是真正的新工具。我认为它只是对我们已有的东西的增强。例如……Lexis。” –L7   总体而言,相对于耸人听闻的 叙述或更温和的 变革性 叙述,参与者倾向于对各自行业可能发生的变化持谨慎态度。虽然一些参与者知道媒体的说法,但他们持怀疑态度,尽管他们有时发现这些说法令人担忧,甚至令人信服。在某些情况下,他们通过建议调整报告的统计数据来完全否定这些叙述。总体而言,大多数行业的参与者似乎认为其他力量比生成式人工智能更具颠覆性。我们将在第 节中进一步讨论特定行业的期望 。
“我一次又一次地看到,媒体公司里的每个人都朝着同一个目标前进。比如,视频转型就是最著名的例子。作为一名记者,这很累,我们看着这些人被解雇,一年后他们说,‘没关系,这不是我们想的答案,我们又回到了原点。’< J2插话道:[还记得] 播客吗?<笑> 是的,没错。我们都见过。所以我不知道 ChatGPT 在整个画面中会如何发展,但我确实认为,就它对我们行业带来的巨大变化而言,它可能并不像一些人想象的那么疯狂。但它可能已经完成了 60% 的路程。” –J3  L4:高盛称未来几年人工智能将取代三亿个工作岗位  L7:三亿?  L4:三亿。  主持人:您觉得这个说法可信吗?  L7:所以全美国都会被解雇。  L4:是的。三亿……  L2:麦肯锡等一些公司研究过这类事情的预测,发现它们错的远比对的要多。但可怕的是,即使影响到五千万人,它的影响也十分重大,会对所有事情产生连锁反应。你知道,这很神奇。它们通常不完全正确。但现实是,你被这个标题吓坏了……说到焦虑。“你好,我是那三亿失业者之一吗?”很可怕。很可怕。  L4:当我读到它时,我很担心。
4.1.5 需要随着生成式人工智能而进化和适应:“让我们与时俱进,对吧?”    虽然一些参与者对许多人将失去工作(特别是那些入门级职位的人)的前景感到悲伤,但其他人认为这些变化是知识工作的自然演变,可能会带来新的机遇。
“尽管人类天生倾向于抵制变化,但变化是永恒的。只要独立思考和学习的底线仍然是一项重要的技能,我就会全力支持改变和不断适应。” – L5(变化卡)  A2:[生成式人工智能]最终可能会取代某些行业的头像摄影或照片拍摄......  A8:是的。我想等到我能说‘以安妮·莱波维茨的风格创作’,你明白吗?...  A2:会实现的。就是这样。情况只会越来越好。那么你该如何应对呢?那些创造者、那些工作会怎样?……我希望创意人士永远都有自己的空间……[但]我认为其中很大一部分工作会消失。比如简单的头像摄影师或拍摄护照照片的人,诸如此类。我不知道。目前看来情况有点暗淡和模糊,但我可以预见它正在发生……我觉得工作岗位、创意岗位、规模较小的工作岗位将会消失,然后只会有更多高层领导来监督技术。  A5:这难道不是进化吗?我们从没有机器到有机器,人们失去了数百万个工作岗位。这难道不是进化的一部分吗?我觉得人工智能可能仍有一些人为因素可以融入其中……是否有人会说“哦,这不对。”?也许像质量控制一样。     一些人还强调,知识工作者需要适应并“重新调整他们的技能组合”,以便利用这一新工具,保持与时俱进,不被时代抛在后面。作为一个具体的例子,参与者谈到即将到来的变化将如何需要“及时工程”技能,以便从生成式人工智能系统中获得更好的输出。
“[对 B3 ] 所以你刚毕业?我会学着适应它并使用它,而不是忽视它……我想这就像从马变成汽车,这是不可避免的……与其忽视它,不如学着开车……你如何利用技术更高效、更有效地完成工作?” –B4     “人们会适应。我们都将继续前进……我确实遇到过很多人,很多技术人员、我的同事、同事,他们都害怕它。但我告诉自己,如果你害怕人工智能本身,那么也许你作为一个人进化得不够快……我认为这给我们带来了新的挑战,我们应该接受它。我们应该接受它,然后更快地进化、适应和调整。” –S1     “我认为,如果你身处这个行业,掌握这些工具并利用它们作为资产来提高你的工作效率,将使你变得无可替代。” –B3(变更卡)

4.2 社会力量:技能下降、非人性化、断绝联系和虚假信息    我们要求参与者描述未来一到两年内他们所在行业即将发生的重要变化。虽然其中一些变化是由生成人工智能推动的,但很多变化并非如此。例如,精神卫生专业人士预计迷幻药的更广泛合法化将给他们的领域带来变革。在某些情况下,参与者预计生成人工智能将与其他变化相互作用,对他们的行业产生特定影响。最突出的是,参与者谈到了四种现有的全球和国家力量,这些力量构成了他们对生成人工智能影响的预期。具体而言,他们预计生成人工智能将放大以下影响知识工作者在其行业中工作方式的问题:技能降低、非人性化、脱节和虚假信息。这些问题可以被描述为社会力量 [ , ]。

4.2.1 去技能化:知识工作的“超级化”。    除了生成式人工智能,还有几股力量正在积极改变某些知识型行业的收入和就业。例如,由于 COVID-19 的爆发,BetterHelp 和 LegalZoom 等远程服务的出现从供需两方面都加速了,因为提供商和客户通常都希望进行虚拟会议。虽然此类服务让客户更容易获得心理健康、法律或其他建议,并且可能以更实惠的价格覆盖更多人,但参与者认为,它们提供的服务质量较低,削弱了对训练有素的专业人员的需求。M6 描述了远程医疗技术初创公司如何比生成式人工智能构成更大的就业威胁:
“BetterHelp 之类的东西对我们的工作保障/生计构成了最大威胁。因为我认为这是心理健康护理的 Uberfication。 –M6     工作的“优步化”指的是政治经济中一种更广泛的转变,即工作如何“通过使用数字技术来安排……以创造‘平台资本主义’”[ ,第 61 页]。这些劳动条件的一个关键因素是用自雇工人取代雇员[ ]。与会者,尤其是律师和记者,反映了一种向合同工、自由职业者或“永久”职位(工人以长期自由职业者的身份为雇主工作)的重大转变。在对专业知识的激增需求以及节约成本措施的推动下,这些职位很不稳定,不能提供与全职工作相同的福利[ ]。     生成式人工智能可能会与这些现有的劳动力趋势相互作用,进一步降低行业技能或减少受过高度训练的专业人员的机会。例如,一些参与者推测,非永久性就业岗位比全职岗位更容易被生成式人工智能取代,因为几乎没有就业保护措施。一些人还指出,生成式人工智能可以通过提出文本字符串来促进廉价的在线服务,而这些文本字符串可以由受过较少训练的人类工作者传递给客户。此外,法律和心理健康等领域的参与者表示担心,客户有时会使用生成式人工智能来寻求建议,而不是花费咨询人类专业人士的费用,这会损害专业知识和收入,同时也会给客户带来不良结果。   参与者谈到了这些趋势可能对他们个人产生的影响。例如,虽然之前对零工经济的担忧往往集中在蓝领工作上,但参与者将零工经济、生成式人工智能和白领工作联系起来。J2曾担任劳工记者,之前撰写过有关技术对蓝领工人影响的文章。随着过去一年生成式人工智能的兴起,他的担忧变得更加直接和个人化。
“作为一名工人……我之前并不太担心 [工作场所数字化],因为你知道,他们正在数字化工厂或类似的东西……现在它实际上开始影响我的行业。所有那些关于工厂工人或 Uber 司机或其他东西的问题,现在都开始被问及我们 [记者],也适用于我们。” –J2     参与者还讨论了这些因素如何影响他们的工资和机会,例如, M6认为这些变化可能会降低他的工资或破坏他对专业职业的投资,同时降低服务质量:
“我的学生贷款仍然很沉重。我的一部分想法是,‘如果 BetterHelp 的价格能让人们负担得起,那就太好了。’但我的就业保障、偿还学生贷款的能力怎么办?……然后是生成式人工智能聊天的想法……我确实担心这可能会被用来破坏我们的就业保障,但我认为它实际上也无法为消费者提供同等水平的服务。” –M6   S7也有类似的担忧,她担心生成式人工智能可能会让她辛苦掌握的技能变得不那么有价值,并阻碍她的职业生涯:
“我当时真的不知道,作为一个非传统背景的女孩,我可以成为一名工程师。我还认为这是赚更多钱的途径。这绝对是一种让我的薪水翻倍、三倍,并能过上我梦寐以求的生活的方式。所以,这有点令人沮丧,尽管这感觉像是一个第一世界的问题,比如‘哦,现在我可能在几年后又回到了没有非常有价值的技能或每个人都能拥有的技能的情况。’”这有点令人沮丧,比如‘哦,终于领先了。我终于到了我想要的地方,’现在我必须再次努力追赶。” –S7     参与者还表示担心,鉴于生成式人工智能适合执行琐碎的任务,它可能会消除许多入门级职位,从而切断进入更高级职位的途径:
“如果我没有从 SDR [销售开发代表] 做起,我就不会从事现在的工作和角色。想到这些入门级职位可能不再需要,我感到很难过...... [这] 令人沮丧,因为我认为每个人都必须从某个地方开始,如果你没有这些基础知识,你怎么从那里成长?” –S6;S6(变更卡)     “很多服务台职位可能会被取消……我对此不太高兴。我一开始就是在服务台工作。我根本没有上过计算机学校。所以取消很多这样的工作真的很糟糕,因为它们只是进入一个好领域的一个非常容易的入口。” –S4     在美国经济普遍不确定的背景下,这些围绕技能退化、低级工作、零工经济和更广泛的失业问题都出现了。参与者有时会推测,这些工作变化可能通过全民基本收入等社会福利方法来解决,但由于他们处于资本主义环境中,因此他们不确定政府或雇主是否会有效解决这些劳动力变化或与生成式人工智能相关的其他道德问题:
S7:我只是觉得在资本主义制度下不可能有好的人工智能……我仍在弄清楚我对人工智能的真实感受。我不认为它本质上是邪恶的或坏的,但我认为当你谈论在公司或企业中使用它时,高层人士总是关心赚钱和裁员之类的事情。所以我觉得,不管它有多好,最后的结果总是让人感觉很恶心、很糟糕。  S5:理想情况下,它就像星际迷航的宇宙。  S7:是的。  S5:我会喜欢这个的 <S7 笑>,没人需要工作。我们都很高兴。  S7:那太好了。但是这样一来,就没有人能独享所有的利润了。  S5:是的。
4.2.2 非人性化:“如何将人性融入人工智能是谁的工作?”    用算法取代人类工作者引发了人们对非人性化的担忧,因为这项任务会失去人类相互交流的特征[ ],变得更加枯燥和不人性化[ ]。许多参与者表示担心,生成式人工智能的使用可能会以各种方式导致人性的丧失。几位参与者提出了在使用生成式人工智能时保留人性的具体机制,提出了一个具体的配额,例如“我们网站上至少 80% 的文字、照片、所有内容都是由人类思维创造的”或“60% 的工作需要由人类完成”。他们担心的一个问题是,生成式人工智能不具备执行人际交往工作的能力。例如,商业沟通专业人士谈到了个人接触和真实的人际交流的重要性,心理健康专业人士表示,生成式人工智能无法建立人与人之间的融洽关系,而这种融洽关系是治疗有效的必要条件。另一个担忧是,参与者在自己执行任务时会感到快乐,而这种情感体验是生成式人工智能无法提供的。算法技术以非人性化的方式引入组织,削弱了员工的自主感[ ]和整体工作满意度[ ]。在将生成式人工智能引入其行业的背景下,与会者也表达了同样的见解
“从摄影的角度来看,他们正在用人工智能生成照片来取代实际拍照,而我喜欢摄影的全部原因是我喜欢拿着相机。我喜欢构图。我喜欢与人互动等等。而生成式人工智能完全摆脱了这一切。人与人之间的联系......” –J6     “有些人从编写代码中获得了乐趣和意义感,这是他们的事情……这些人花了很多年才掌握了这门手艺。我认为这才是悲哀之处。” –S2  主持人:那么,[本科生] 应该去攻读计算机科学学位,在那里他们会做大量的数学和代码,还是应该去参加一些快速的工程训练营?... S2:嗯,在艺术学校的背景下,这也是同样的问题。有人应该去学习如何绘画以及其中涉及的所有复杂内容吗?还是说这是徒劳的,因为计算机可以为你吐出那幅画?我认为没有正确的答案...如果有人想去学校学习计算机科学,因为...学习和修修补补很有趣,他们应该这样做,不要让机器人阻止他们。     参与者强调了人类生产和创造力的价值。他们的评论让人想起了工艺美术运动,该运动挑战了大规模生产物品的完整性,将其与非人性和生产标准下降联系起来[ ]。工艺美术运动重视手工生产和人类工艺,尽管它不如工业时代普遍存在的大规模生产效率高。同样,参与者谈到了手工制作的价值,以及人造物品的高品质和意义。与此同时,一些人担心公众的审美标准可能会随着时间的推移而转向更少的人性化内容。
“我认为屏幕之外还有真实事物的潜力,比如相册中的真实照片。现在谁还会做这些呢?但我认为这样的事物会变得几乎神圣,类似于......远离智能手机和屏幕的愚蠢手机运动。我认为在某个时候会朝着这个方向发展。就像你可以用手触摸和制作的东西......想要知道创造某样东西需要时间、意图、目的和深思熟虑的个人风格。我认为这真的很美。我想我真的没有看到人工智能的美。” –A1     “我认为许多技术工人和工匠式的工作将重新流行起来,人工智能很难取代它们。我的男朋友最近上家具学校,他是一名木匠,也是一名优秀的家具制造者。我只是在想,现在我是养家糊口的人,但我想很快他可能会成为养家糊口的人,因为手工制作的东西很有特色,质量也很好。我们生活在一个快时尚时代,东西都是批量生产的。我认为人们真正渴望的是精心制作、经久耐用、富有创意的东西……制作一张桌子需要很多个人技能和大量体力劳动……我很难想象生成式人工智能真的能够取代它。” –S7     “我相信,当人工智能创造的内容(文章、视频、信息图表等)开始渗透到我们的信息流中时,我们最终会接受其奇怪的美学(我们称之为‘机器人’、‘怪异’等),并将其视为正常现象。这可能会创造出我们所熟知的数字媒体的全新美学。我很担心。” –J8(更换卡)     一些参与者强调,人们必须保留批判性思维技能以及完成生成式人工智能所承担的工作的能力,并且不能变得懒惰。与此同时,一些人认识到懒惰和高效之间存在着微妙的界限,因此要节省时间从事更有意义的活动。
“我希望我的女儿永远不会发现 [ChatGPT]……我不想让它夺走创造力。我希望我的女儿能有自己的想法。就像她学习的时候一样。这对我来说真的很重要。” –L3     “我认为你需要积极地不偷懒,因为这很有帮助。你需要说,‘好吧,我不会让这个责任落到这台机器上。我仍然会在这里扮演最重要的角色……’” –A1  A7:如果我还在读高中,我想我现在会很懒,我会尽可能多地利用[生成式人工智能]……如果你现在不想学,你一辈子都学不完…… A6:这是懒惰还是聪明?你是在长期学习还是在简化流程?
4.2.3 断开连接:“你必须在那里。”    知识工作中也会出现这种脱节感,例如,新的以技术为媒介的工作安排可能会增加员工的孤立感 [ ],而感知到的孤立感的更广泛社会趋势可能会对知识工作实践施加外部压力 [ ]。与会者谈到了日益严重的社会脱节,比如部分源于新冠肺炎疫情的“孤独流行病”[ ]以及相应的社会孤立和远程/虚拟工作和教育的增加,以及其他因素,如手机和社交媒体使用率不断上升,甚至上瘾。他们担心生成式人工智能会进一步导致与身体和社会体验的脱节。例如,心理健康专业人士担心,生成式人工智能的治疗用途可能会产生与预期相反的效果,加剧孤独感,即使患者求助于它来寻求安慰:
“我听到人们谈论在聊天机器人模型中将人工智能(用于心理健康)用于治疗,在很大程度上,我对此非常反对。因为我认为需要心理健康服务的人数增加的很大一部分原因是脱节。我认为,虽然在那一刻,与机器人聊天可能真的对你的客户有帮助,但它仍然不能取代人际互动。我认为这种脱节是导致这场(心理健康)危机的主要原因。” –M6     我们的参与者还描述了优秀的新闻工作如何需要“脚踏实地”,以及自由职业和远程工作的持续增长如何威胁新闻制作的质量,而这一趋势可能会因生成式人工智能的使用而进一步加剧。J8 将生成式人工智能 新闻业的未来描述为“只是更加回收和脱离现实,让人们更多地脱离他们正在做的事情,而不是完全沉浸其中。”参与者还表达了对内容随着时间的推移越来越脱离现实的担忧,因为新的生成式人工智能在一层又一层的回收、越来越非人类的内容上进行训练。
“作为记者,当我们报道事情时,我们目前是在实地进行报道,与人交谈之类的。而且,我们越来越像通过 Zoom 与人交谈,或者我们不再飞往各地报道事情,而是雇佣自由职业者……我们从海外获得大量镜头,然后我们必须从中制作一些东西,因为我们在那里雇佣了自由职业者,而不是在实地做这件事。所以,这就是我们所报道的内容、我们所想的和世界的实际现实之间的逐渐、非常缓慢的脱节。” –J8     “[新闻聚合器] 是所有故事的同质化。我们失去了目击者或叙述者的个人声音,你知道吗?……[作为一名记者] 你仍然需要体验它,你需要品尝它,你需要看到它,你需要感受它,才能将人类体验的这些感觉转述给你的读者。” –J1     “我认为现在正在发生很多简化和回收的事情。我担心回收已经回收过的文字和图片会产生长期影响,以及这会对创意产生什么影响。” –J8
4.2.4 虚假信息:“我认为他们称之为幻觉……它以权威的方式表达了出来。”    虚假信息是指故意传播虚假、不准确或误导性信息,旨在故意对公众造成伤害 [ ],其产生往往受到“意识形态、金钱和 / 或地位和关注”的驱使 [ ,第 27 页]。与会者对生成式人工智能在虚假信息中可能扮演的角色表示担忧,更广泛地说,是在低质量内容的生产中,特别是在美国讨论两极分化、文化战争和媒体偏见的大背景下。一个担忧是,由于生成式人工智能通常在训练中加入互联网数据,因此其质量会受到互联网上现有的低质量内容的损害:
“现在还不能直接把数据从互联网上提取出来,因为在人工智能出现之前,错误信息太多了。” –J7     “我真的很担心人工智能会学习互联网上的所有东西,这只会造成混乱。但如果有一个人工智能可以从[权威来源]收集所有内容……我会对此感到非常兴奋。” –A4     参与者进一步表示担心,生成式人工智能本身会激增,或被用来制作更多低质量内容。他们担心目前媒体和网络上的错误信息和虚假信息,并将生成式人工智能视为一种工具,可以让有害内容的制作变得更加容易和快速。他们预计这将产生重大的负面社会和政治影响:
“[我担心]宣传会变得如此难以辨别,以至于没人知道什么是真的......我们将无法确定什么是真的,什么是假的,这可能会给我们带来厄运。” –A6     “这似乎是深度造假的一个主要问题,尤其是在色情领域,而色情正是互联网得以运行的基础。报复性色情已经存在问题,而且人们认为你可以对任何人的脸、任何人的肖像进行这种操作……人类最坏的冲动 <笑> 和欲望将由生成性人工智能产生。” –J7     “生成式人工智能的出现对我们美国人和记者来说不是时候。我们对诸如真与假、什么是真相、什么是客观真相和主观真相等词语非常敏感。” –J3     参与者还担心,由经济或政治不稳定等广泛因素引起的媒体动荡目前正在推动新闻聚合和媒体集中,从而削弱公众可获得信息的质量,并使内容“低俗化”、同质化或政治化。他们担心生成式人工智能可能会加剧这些问题。J2 谈到了始于欧洲的媒体趋势:
“[变化]不是由生成式人工智能引起的,但可能会因此而变得更糟,那就是媒体进一步集中。这是因为亿万富翁们四处购买媒体,将它们聚集起来,改变甚至增加他们的社论内容,以谋取利益……[作为]实现[他们]政治议程的工具……我相信生成式人工智能可能会让情况变得更糟,因为这些人突然间就能购买和集中媒体。如果有人有任何道德问题,那么你知道,门就在那里。而且生成式人工智能可以以更便宜的价格做到这一点……只需买一份报纸,解雇整个新闻编辑室……我们就用生成式人工智能来管理它。” –J2
4.2.5 行业观点。    上文中,我们绘制了研究行业的主题。这里我们为每个行业提供了更多细节。为了说明最突出的观点并捕捉每次讨论的独特之处,我们根据从每个小组收到的回复的内容、语言和语气创建了综合数据 [ , 所示 。这些综合数据说明了主题在不同行业中发挥作用的细微差别;例如,参与者认为哪些角色在其特定行业中最有可能受到影响。    表 4:
精神健康 去技能化非人化断开我们致力于解决社会最重要的问题之一:心理健康是一场全国性危机,孤独感使这一问题更加严重。合格的心理健康专业人员严重短缺,而治疗需要人与人之间的联系,而计算机无法提供这种联系,因此我们觉得我们的工作在生成式人工智能面前是极其安全的。然而,我们担心远程医疗服务提供的服务质量低下,但仍会破坏我们的工作保障。生成式人工智能可能是一种有用的工具,可用于行政工作、模拟谈话疗法培训,或者在人们无法立即联系到人类治疗师时作为一种权宜之计。
教育 人工审核非人化断开我们并不指望生成式人工智能会对我们的工作产生深远影响。学生已经有很多作弊的方法,而生成式人工智能只是一种更新、更好的方法,我们通过审查他们的作业来应对。我们担心,如果使用不当,生成式人工智能可能会让学生变得懒惰。我们也对过度使用科技和疫情期间远程教育造成的社会隔离很敏感。由于标准化评分,我们正在重组大部分课程。这给了我们更多的自由来设计新的活动,所以也许有机会将生成式人工智能融入我们的课程中。
法律 琐碎的工作工具人工审核生成式人工智能是一种可以执行公式化法律任务(如起草或研究)的工具,前提是其工作经过合格律师的审查,它可以取代入门级和支持性职位,并导致失业。我们听说过有关虚假引证的新闻报道,这让我们对使用它持谨慎态度,即使在人工监督下也是如此。生成式人工智能不太可能具备足够的技能来取代人类专业人士,它永远不应该做出决定,或充当律师、法官或陪审团。然而,我们预计客户将开始使用生成式人工智能工具为自己做一些法律工作,但结果并不理想。
新闻学 去技能化非人化虚假信息我们从事的是一份崇高的职业,我们已经在许多方面陷入困境,面临着虚假信息、新闻聚合器、收入来源减少等问题。生成式人工智能将加剧持续的不稳定/自由职业、低工资、失业和新闻业的衰落。生成式人工智能使低质量的提供者更容易制造虚假/虚假信息,对社会产生有害影响。生成式人工智能可能会取代我们最喜欢的一些工作,比如写作或新闻摄影。
商业沟通 工具人工审核需要适应生成式人工智能可以完成很多工作,它必然会被我们的行业采用。公司和员工需要适应、学习和“与人工智能一起成长”,以保持相关性和保障工作安全。我们的许多写作都是公式化的,而生成式人工智能是一个很好的工具,可以生成常规、大量和/或一次性通信(如电子邮件通知)的早期草稿。生成式人工智能将需要大量的人工监督和指导,尤其是要确保它符合合规性和法律标准并与我们的品牌声音保持一致。我们可以利用现有的审批结构来检查其输出。
广告 工具人工审核失去某些工作生成式人工智能非常适合广告行业的许多任务。遗憾的是,某些工作将会消失,最直接的就是与产品摄影和视频制作相关的工作,其中布局和文案写作将受到严重威胁。然而,创意监督仍将由人类负责,而生成式人工智能将是一个令人兴奋的头脑风暴工具。大多数生成式人工智能输出都需要人工检查,特别是为了确保它不违反品牌标准或版权。事实上,可能会成立新的团队来进行这些检查。我们的行业提倡和接受变革,但我们也重视人类的技艺,我们经常质疑数字化制作的内容和体验的质量。
软件开发 需要适应去技能化非人化生成式人工智能可能会推动软件开发大多数方面的变革。例如,这包括自动化琐碎而无聊的任务、取消许多入门级职位(这将限制新人进入该领域的途径),以及人工智能重塑低代码技术解决方案甚至在正规软件公司内编写可用于生产的代码的能力。我们对未来感到不确定,并面临着适应生成式人工智能新进展的压力。一些人担心,我们在收入丰厚的职业上投入的时间和教育可能会打水漂,让我们回到原点。有些人从事软件工程是为了钱,但一些人是出于对修修补补和解决问题的热爱,而生成式人工智能可能会接管很多给我们带来快乐的工作

表 4:综合数据说明了参与者对生成式 AI 对其行业影响的期望中最突出的几点,行业按预期影响从小到大的顺序排列。在每个行业的名称下,我们列出了三个最突出的主题(省力工具 叙述-蓝色;社会力量 -红色)。前三个主题和综合数据都不能全面代表所有要点,例如,尽管法律专业广泛讨论了技能降低,但它并不是前三大主题之一。

5 讨论    在本节中,我们将根据参与者的见解,提出生成式人工智能和知识工作交叉领域的关键人机交互研究问题。我们不会关注当前的用户实践或这些系统早期版本的设计建议,而是试图提出更大的问题,即如何理解和塑造生成式人工智能的影响。其中一些工作完全属于人机交互的范畴,但其中大部分可能需要与其他学科以及知识工作者、政策制定者、民间社会等利益相关者进行更广泛的合作。

5.1 研究挑战:人在回路    绝大多数参与者都赞成采用“人在环”(HITL)方法(即,增加第 节中所述的人工审核或监督),认为这是解决生成式 AI 诸多问题的必要且充分的补救措施。例如,他们希望在自己的行业中,人工审核人员能够检查生成式 AI 的所有输出,并纠正任何不准确之处或其他质量问题。法律学者报告称,监管机构也有类似的倾向,即采用他们所谓的“给人工智能打上一巴掌”的方法来解决“一系列”有关 AI 的担忧 [ ]。     然而,HITL 文献指出了参与者没有意识到的严重的、尚未解决的实际问题。例如,人类在审查算法输出时会犯很多错误,而且经常以有害的方式覆盖算法;因此,人类的监督政策可能会提供一种虚假的安全感,而不是改善整体结果 [ , ]。此外,研究表明,有效配置人机协调极其困难,因此交接通常设计不佳,并产生有害结果 [ , , ]。此外,学者们认为,HITL 方法不成比例地追究人类的责任,即使在实践中他们几乎没有影响力或没有适当的技能或时间进行审查,让审查者承担技术或结构故障的责任 [ , , , , , ]。这提出了两个主要的研究问题:   #1. 我们如何提高对 HITL 局限性的认识?     我们认为,在应用 HITL 解决方案时务必谨慎。那些正在制定有关生成式 AI 缓解措施的决策者(例如,监管者、知识产业的决策者)应该意识到 HITL 当前的局限性,因此他们不要对其补救问题的潜力过于乐观。   #2. 我们如何制作更好的 HITL 系统?     尽管目前存在局限性,但仍有许多机会可以提高 HITL 的有效性。生成式 AI 的出现尤其凸显了对 HITL 方法的需求,这些方法可以在大规模审查生成的文本、图像和视频方面发挥良好的作用。此外,认知强制干预(例如,在向员工展示生成式 AI 的输出之前,要求员工生成某些初步内容)可以激发分析性思维而非启发式思维 [ ]。此外,审阅者可以接受专门培训,以批判性地审查生成式 AI 的输出;这些审查技能最终可能至少与快速工程等其他技能一样有价值。总体而言,虽然改进的解决方案不太可能缓解 HITL 的所有问题 [ ],但进一步的研究和创新设计和开发可能会带来更好的结果。

5.2 研究挑战:知识工作者对影响的期望  节所述 ,我们观察到参与者对生成式 AI 如何改变其领域的期望与媒体、技术专家和学者提供的更广泛的颠覆性叙述之间存在巨大差距——参与者通常对潜在影响的看法更为有限。这提出了以下研究问题:   #3 为什么一些知识工作者认为他们基本上不会受到生成式人工智能的影响?     是否有某些工人对生成式人工智能带来的变化感觉更不敏感?这是由于想象力不足或缺乏意识,还是知识型工人对其行业有其他叙述未考虑到的特殊理解?   #4 我们如何提高知识工作者对 变革的认识 叙述     更好地理解生成式人工智能如何以及为何被定位为能够胜任人类专家级别的工作,将使知识工作者能够更有意义地为利益相关者提供意见。此外,知识工作者是否低估了生成式人工智能可以做什么和可能做什么的范围,以及它如何改变不仅仅是特定的任务或工作,而是更普遍的行业?如果是这样,哪些干预措施和透明度工件可能是最有意义的?例如,人工智能系统在很大程度上尚未专业化;也许开发和分享特定行业的演示会有所帮助。

5.3 研究挑战:技能降低    随着技术改变工作方式,现有和新兴职业所需的技能组合也随之发生变化 [ ],从而形成失业和劳动力短缺并存的悖论 [ 节所述 。这引出了以下研究问题:   #5 我们如何帮助知识工作者适应潜在但不确定的广泛转型?     什么样的培训会给知识型员工带来益处,帮助他们重新掌握技能,应对可能出现的变化?除了及时的工程设计之外,对人工智能输出进行人工审查的培训似乎很有前景,培养批判性思维技能和管理复杂、高级用例的能力也是如此。此外,传统的国家政策应对劳动力市场变化往往依赖于传统的中等教育[ ],但这往往跟不上技术变革的步伐[ ]。在单个组织内进行技能再培训是一种更具成本效益、以员工为中心的战略,可以随着知识工作的技术变革而发展[ ]。未来的工作可以探索劳动力转型,包括如何以最大限度减少不稳定性的方式重新培训或提升员工的技能。此外,研究人员还讨论了如何利用人类劳动力来弥补当前自动化系统能力的差距,以及人类成功完成这些往往看不见的工作最终如何导致自动化系统取代人类劳动力,例如,通过证明商业模式是可行的,或者训练系统来完成以前由人类完成的工作[ , , , ]。我们如何探索为那些推动和/或受到生成式人工智能自动化影响的工人(通常来自边缘群体)提供保护、机会和奖励结构?   #6 在向生成式人工智能的潜在转变过程中,我们如何更好地设计以实现知识工作的更公平的分配和评价?     诸如初级职位可能被蚕食之类的变化是否会进一步巩固职场中现有的种族和性别等级制度[ ]?实现解放或解放的未来在多大程度上需要抵消工作贬值和去技能化,以便人工智能介导的系统不会强化压迫模式,而这种压迫模式为历史上种族剥削提供了正当理由[ ]?在这种背景下,我们如何才能更好地进行设计或寻求其他途径来促进正义[ ]?在依赖基础技能发展的行业中,如果不从事入门级任务,最有才华的专家如何脱颖而出?即使生成式人工智能可以执行这些任务,哪些系统可以支持人类发展必要的技能?

5.4 研究挑战:非人性化    作为主要研究人类与计算机系统之间接口的研究团体,了解这些系统在哪些方面令人感到不舒服且不可接受地侵犯了人们固有的人性意识应该是一项重要的研究议程。为了探索非人性化,我们建议从两个方面来探讨,以解决我们的参与者提出的严重担忧,如第 节所述:   #7 我们如何学习和保护那些给人们带来快乐和意义的任务,但生成式人工智能可以做得和人类一样好甚至更好?     我们不仅应该像许多经济学家关注的那样(例如 [ , ])了解哪些任务可以被人工智能系统有效取代,还应该了解哪些任务天生就带来快乐并增强人性。通过开始记录这些有意义但在某些情况下人工智能系统也可以同样出色地完成甚至更高质量或更有效地完成的任务,我们可以开始设计方法来保护这些任务,或者至少做出何时自动化这些任务的合理决策。这可能涉及人机交互干预,以设计突出或保留某些工作或决策的系统,或更广泛的监管问题,以保护整个社会的某些工作。虽然许多乌托邦愿景都涉及人工智能将人类从工作中解放出来并从事新的、创造性的艺术工作,但失去当前工作和解决问题中存在的技艺、快乐和人性可能会带来重大负面影响,包括延续和进一步加深现有的不平等 [ ]。生成式人工智能并非“解放”个人,而只是将非人性化劳动的负担转移到不同群体身上,或创造出新的贬值劳动形式。此外,在执行需要创造力或智力严谨性的任务时,它可能会降低人类在这些领域贡献的价值和独特性,强化对人类的狭隘和排他性定义。   #8 我们如何才能促进批判性思维并且防止人们变得懒惰?     除了某些任务所固有的乐趣和意义之外,我们的参与者还发现推理和批判性思维具有内在价值。参与者担心人工智能会减少或消除挑战人类或迫使人类解决问题的任务,从而导致社会变得懒惰。尽管人机交互界已开展大量工作来探索人类与人工智能系统如何协作以获得更高质量、更具创造性的成果[ , , , , ],但这个问题鼓励人们研究如何设计这些协作来支持知识型员工[ ],以及如何设计系统让人们直接参与解决问题而不是简单地提供答案。

5.5 研究挑战:护栏    负责任的人工智能已经获得了巨大的关注,从已发布的原则到更具可操作性和/或可衡量的策略。虽然可解释性和公平性等一些问题在系统设计中更接近于有具体的补救措施,但其他广泛的社会问题需要在工程和系统设计之外进行额外的工作,包括危害评估、利益相关者参与和更加关注社区成果。考虑到参与者优先考虑的社会力量(如第 节所述),当前的责任指标与虚假信息最相关,而在技能降低、非人性化和脱节方面则没有太大帮助。这引出了以下问题:   #9 我们如何设计负责任的人工智能方法,以应对复杂的全球动态?     负责任的人工智能如何才能更全面、更全面地考虑影响和危害?我们的研究结果强调了生成式人工智能的影响必须考虑到与其开发、部署和使用条件相交叉的社会力量。因此,止步于模型评估(例如,根据预定基准分析输出)的危害或影响分析方法是不够的。   #10 负责任的人工智能评估如何更充分地吸收利益相关者的意见?     负责任的人工智能产品评估通常集中在预测产品上市可能带来的危害 [ , ],通过考虑产品的具体使用可能对用户和社区造成危害 [ ]。许多负责任的人工智能干预措施面向开发人员,比如制定人工智能原则 [ ]、教育从业者培养道德意识 [ ],以及通过训练数据缓解、模型内控制(如强化学习)和控制输出的安全分类器来调节生成人工智能系统 [ ]。然而,人们对评估社区期望的人工智能形式和用途的关注有限。让实践社区 [ ] 有意义地参与这些问题的探索,例如通过基于社区的参与式研究 [ , ],可以为实践发展提供信息,将社区参与纳入负责任的人工智能实践。同样,在劳动力背景下,如何评估可能减少或彻底改变特定工作的人工智能系统的影响也出现了复杂的问题。虽然公司通常会考虑整个业务的需求,但他们应该如何考虑个别员工的需求,特别是那些可能被裁员或被调换工作岗位的员工的需求?在开发这些人工智能解决方案之前,有没有办法直接让他们参与进来?我们如何教育或支持决策者与利益相关者互动?

6。结论    技术出现的历史背景影响着它最终被采用和使用的方式。在全球疫情、经济不确定性等因素的共同作用下,生成式人工智能变得更加普及和引人注目。我们研究中的许多知识工作者将生成式人工智能置于这种背景下,强调生成式人工智能加剧了以下四种社会力量:技能降低、非人性化、脱节和虚假信息。换句话说,他们没有将生成式人工智能视为其工作或行业的独立颠覆者,而是将其定位为现有力量的延伸和加剧。正如讨论中所述,这种框架提出了重要的新问题和机遇,以探索和塑造生成式人工智能对知识工作者及其行业的未来影响。

致谢    我们感谢参与者慷慨分享他们的见解和专业知识。我们感谢 Gemic 的合作伙伴团队,包括 TJ Foley、Roger Galvez、David Ginsborg、Rebekah Park 和 Rohini Shah,感谢他们在该领域的支持。我们感谢 Google 的同事,包括 Marian Croak、Jen Gennai、Angela McKay、Anoop Sinha 和 Ashley Walker,感谢他们对这项工作的支持。

行业详情   表 5:

行业简要概述招聘职位
广告开展旨在推销项目或服务的促销工作核心:艺术总监、创意总监次要:文案、平面设计师、插画师、动画师、社交媒体或搜索引擎优化策略师、媒体策划师、客户经理
商业沟通管理向员工、客户、利益相关者、媒体或公众等受众传达的内部和外部信息中央:内部沟通主管、沟通专家、行政助理次要:人力资源专家、内容策略师、企业公关
教育教导学生并促进他们的学习和发展中央:初中和高中教师,课程讲师或教授(大专)中学:学校校长或副校长,自由职业导师,阅读专家
新闻学制作和传播报道,向社会通报事件、人物、思想以及任何可能被认为“有新闻价值”的事物核心:报纸记者、专栏作家、社论撰稿人次要:文字编辑、事实核查员、部门/内容编辑、新闻编辑室编辑/经理、自由撰稿人(印刷/在线或广播)
法律支持并执行既定的法律标准;为客户辩护中央:初级和高级律师次要:律师事务所合伙人,自由职业律师,律师助理,法律职员,公设辩护人
精神健康支持、稳定和改善个人的心理健康核心:心理学家、治疗师、精神病学家次要:社会工作者、个案经理/协调员、临床顾问
软件开发设计、编程、部署和维护软件核心:初级和高级全栈开发人员次要:数据库工程师、数据科学家、产品经理

表 5:我们对每个行业的看法概述,包括我们所描述的与招聘合作伙伴分享的核心角色和次要角色。

B 生成式人工智能简介    我们研讨会的一个关键部分是为参与者提供思考生成式人工智能的基础。为此,我们在每次研讨会开始时都会主持一个约 40 分钟的教育环节。我们以 20 分钟的演讲开始,内容包括:     •         人工智能的共同定义      •         人工智能和生成式人工智能的简史,重点介绍人工智能发展的早期目标等关键概念      •         对 transformer 模型和 LLM 近期变化的简要非技术性解释      •         研讨会期间参考的有关生成式人工智能系统的特征、优势和风险的 15 个关键概念        我们鼓励参与者在演示过程中随时提问,然后我们又花了 20 分钟进行进一步提问和讨论。在每个研讨会上,演示和问答由两位作者中的一位主持,他们都是从事人工智能研究的研究人员。我们根据每个小组的行业对材料进行了轻微定制。     我们提供的定义是:“人工智能是计算机或机器思考或学习的能力”,并且我们对如何看待“计算机或机器”、“思考”和“学习”这些术语提供了额外的解释。     我们分享的15个概念包括:     偏见         生成式人工智能工具可能反映出其训练数据中存在的社会偏见      布兰德         生成式人工智能通常会生成“平面”或通用的文本,除非明确指示其他方式      头脑风暴         — 生成式人工智能工具可以创建大纲、列表、草稿、可能的解决方案等      新兴特性         生成式人工智能模型似乎拥有了它们原本不具备的能力      谎言         生成式人工智能可以捏造信息或来源,或弄错事实,但看起来却充满自信,令人信服      语法         — 基于文本的生成式 AI 工具生成的内容可以写得很好,使用良好的语法并避免拼写错误      识别隐性结构         — 生成式人工智能可以发现之前未阐明的步骤和过程      记忆/隐私泄露         — 生成式人工智能可能会生成与其训练数据相同的内容      模仿         — 生成式人工智能可以被要求模仿体裁、语气、措辞、视觉风格等      不确定性         — 生成式 AI 模型可以给出可变的、不一致的响应。这意味着当用户输入相同或相似的提示时,系统可能不会以相同的方式响应      来源不明         — 生成式人工智能工具可能无法可靠地将特定内容追溯到训练数据中的直接来源      混音         — 生成式人工智能总是根据其训练数据生成内容。它可以以独特的方式重新组合数据,但仅限于重新混合训练数据      安全得不到保障         — 生成式人工智能工具可能具有内置安全系统,以尝试阻止某些类型的内容或主题,但这些系统并非万无一失      规模/速度         — 与其他人工智能和机器学习系统一样,生成式人工智能能够反复考虑大量数据并极快地处理许多任务      可调整         通过“即时工程”,生成式人工智能工具通常可以受到影响,以某种方式生成内容

C 文物   图1:

图 1E6的教育行业地图。在签到时,参与者被邀请绘制其行业或领域的地图。    图 2:

图 2 : A4的一张变更卡,讨论他们对生成式 AI 生成图像的能力的期望。参与者单独完成变更卡,然后在引导式讨论中分享。    图 3:

图 3J5的政策建议对新闻编辑室中生成式人工智能的使用加以限制。我们根据每个小组的行业对政策手册进行了轻微的定制。参与者分别完成了他们的政策手册,然后在引导式讨论中分享。

脚注        这项工作是在作者在谷歌任职期间进行的。     1      LLM 是一种针对大量数据(例如,TB 或 PB 级)进行训练的机器学习模型,其模型参数估计数达数十亿,能够根据自然语言输入生成结构良好且风格化的自然语言输出。         2   ]于 1959 年提出。

Read more

深入理解 Proxy 和 Object.defineProperty

在JavaScript中,对象是一种核心的数据结构,而对对象的操作也是开发中经常遇到的任务。在这个过程中,我们经常会使用到两个重要的特性:Proxy和Object.defineProperty。这两者都允许我们在对象上进行拦截和自定义操作,但它们在实现方式、应用场景和灵活性等方面存在一些显著的区别。本文将深入比较Proxy和Object.defineProperty,包括它们的基本概念、使用示例以及适用场景,以帮助读者更好地理解和运用这两个特性。 1. Object.defineProperty 1.1 基本概念 Object.defineProperty 是 ECMAScript 5 引入的一个方法,用于直接在对象上定义新属性或修改已有属性。它的基本语法如下: javascript 代码解读复制代码Object.defineProperty(obj, prop, descriptor); 其中,obj是目标对象,prop是要定义或修改的属性名,descriptor是一个描述符对象,用于定义属性的特性。 1.2 使用示例 javascript 代码解读复制代码//

By Ne0inhk

Proxy 和 Object.defineProperty 的区别

Proxy 和 Object.defineProperty 是 JavaScript 中两个不同的特性,它们的作用也不完全相同。 Object.defineProperty 允许你在一个对象上定义一个新属性或者修改一个已有属性。通过这个方法你可以精确地定义属性的特征,比如它是否可写、可枚举、可配置等。该方法的使用场景通常是需要在一个对象上创建一个属性,然后控制这个属性的行为。 Proxy 也可以用来代理一个对象,但是相比于 Object.defineProperty,它提供了更加强大的功能。使用 Proxy 可以截获并重定义对象的基本操作,比如访问属性、赋值、函数调用等等。在这些操作被执行之前,可以通过拦截器函数对这些操作进行拦截和修改。因此,通过 Proxy,你可以完全重写一个对象的默认行为。该方法的使用场景通常是需要对一个对象的行为进行定制化,或者需要在对象上添加额外的功能。 对比 以下是 Proxy 和 Object.defineProperty 的一些区别对比: 方面ProxyObject.defineProperty语法使用 new Proxy(target,

By Ne0inhk