1. 以下哪个不是 MindSpore 核心架构的特点?
A、自动微分 B、自动调优 C、自动编码 D、自动并行
答案:C
解析:MindSpore 核心架构以自动微分、自动并行和自动调优为主要特点,支持端边云全场景的 AI 开发。'自动编码'并非其核心架构的特点。
2. 如果你想使用 Hugging Face Transformers 库中的预训练模型进行 DeepSpeed 训练,请对以下步骤进行排序,正确的是哪一项?
步骤:
- 创建一个 TrainingArguments 对象,并在其中指定包括 DeepSpeed 配置在内的训练参数。
- 创建 Trainer 对象。
- 加载预训练模型。
- 传递模型和训练参数,开始训练。
- 从 Transformers 库中导入相关工具包。
A、51324 B、52134 C、51234 D、53214
答案:A
解析:Hugging Face Transformers 库中结合 DeepSpeed 训练的流程通常遵循:导入工具包→配置训练参数→加载模型→初始化 Trainer→启动训练。参考 Transformers 官方文档的 Trainer 和 DeepSpeed 集成示例,正确顺序为先导入所需模块(步骤 5),创建包含 DeepSpeed 配置的 TrainingArguments(步骤 1),随后加载预训练模型(步骤 3),实例化 Trainer 时传入参数和模型(步骤 2),最后调用训练方法(步骤 4)。选项 A 的 51324 符合该流程。
3. 当函数在向量空间的某凸点处,沿着哪个方向有最大的变化率?
A、梯度 B、最小方向导数 C、方向导数 D、导数
答案:A
解析:函数在向量空间某一凸点处沿梯度方向的变化率最大,这一结论与数学理论、几何直观及技术实践完全一致。
4. 假设我们有某个包含两个句子的文本片段,分别为:'Tony 喜欢吃苹果','He likes eating apples'。现在我们使用预训练的 BERT 模型对这个文本片段进行编码,然后将句子'Tony'和'He'分别作为查询,通过 BERT 计算两个句子的相似度得分。最后巴层的输出向量将如何影响计算结果?
A、最后一层输出向量捕捉了整个文本片段的含义,对相似度得分影响较大 B、最后一层输出向量主要捕捉了单个句子的信息,对相似度得分影响有限 C、最后一层输出向量会区分两个句子的关键词,对相似度得分影响较小 D、最后一层输出向量对相似度得分没有影响,因为相似度计算只依赖于词级别表示
答案:A
解析:BERT 模型通过多层自注意力机制处理输入文本,最后一层的输出向量聚合了所有层的上下文信息,编码了整个文本片段的深层语义关联。原始论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》指出,最后一层向量具备更丰富的上下文表征能力。选项 A 正确,因为相似度计算依赖整体语义,最后一层向量融合了跨句信息(如'He'指代'Tony'),直接影响得分。选项 B、C 错误,BERT 不局限于单句或关键词;选项 D 错误,相似度计算基于上下文而非词级嵌入。
5. 以下哪个选项不是 Megatron-LM 并行框架支持的功能?
A、ZeRO 数据并行 B、张量并行 C、流水线并行 D、BF16 优化器
答案:A
解析:Megatron-LM 的原生并行功能:张量并行(B)和流水线并行(C)是 Megatron-LM 的核心原生功能,直接支持模型参数的分布式计算。BF16 优化器(D)属于混合精度训练技术,Megatron-LM 原生支持此类计算优化。ZeRO 数据并行是 DeepSpeed 的特性,而非 Megatron-LM 原生支持的功能。
6. tf.keras.metrics 的内置指标不包括的方法有?
A、mean B、Accuracy C、Recall D、Sum
答案:A
解析:TensorFlow 的 tf.keras.metrics 模块提供多种内置评估指标。根据官方文档,内置指标如 Accuracy(计算准确率)、Recall(计算召回率)、Sum(累加结果)均为直接可调用的类。而 mean 并非独立的内置指标类,它通常通过 Mean 方法或作为其他指标的内部计算结果存在。选项 A 的 mean 未直接作为标准指标类提供。
7. HiAI 对第三方开发者开放的资源包叫
A、HiAI DDR B、HiAI DDK C、HiAI SDK D、HiAI JDK
答案:B
解析:华为 HiAI 平台为第三方开发者提供的资源包命名遵循其官方技术文档中的定义。HiAI DDK(Device Development Kit)专指面向设备端的 AI 能力开发套件,包含模型转换、算子开发等工具链。其他选项如 DDR(内存相关术语)、SDK(通用软件开发工具包)、JDK(Java 开发工具包)均不符合华为官方对 HiAI 生态组件的命名规范。该命名方式在《华为 HiAI Foundation 开发指南》的'开发环境准备'章节有明确说明。
8. 在大型语言模型的训练中,哪项技术能够通过模拟人类解决问题的思维过程来增强模型的推理能力?
A、联邦学习 B、强化学习 C、思维链 D、迁移学习
答案:C
解析:在大型语言模型训练中,模拟人类逐步推导的推理过程可通过特定技术实现。思维链(Chain of Thought)源于对复杂问题分步解答的研究,通过生成中间推理步骤而非直接输出最终答案,帮助模型更接近人类逻辑思考模式。联邦学习侧重数据隐私保护,强化学习依赖环境反馈机制,迁移学习聚焦跨任务知识复用,三者均不直接关联分步推理。思维链技术尤其适用于需要逻辑推导的任务,例如数学问题或多步骤推理场景。(来源:相关研究如 Google 团队提出的 Chain of Thought Prompting for Large Language Models, 2022)
9. ModelArts 服务与()服务结合可以轻松将模型部署到'端'?
A、OBS B、ORC C、ECS D、HiLens
答案:D
解析:ModelArts 训练模型后,通过 HiLens 的端侧框架(如技能开发、设备管理)可直接将模型轻量化并推送至终端设备。
10. 人工智能处在感知智能阶段的表现是什么?
A、机器开始像人类一样能理解、思考与决策 B、机器开始像人类一样会计算,传递信息 C、机器开始看懂和听懂,做出判断,采取一些简单行动 D、机器开始有情感和意识
答案:C
解析:感知阶指机器具备初步感知能力,能处理视觉、听觉等信息并执行简单行动。选项 A 描述的是更高阶段的认知能力,涉及理解与决策;选项 B 侧重基础计算与信息传递,属于更早期阶段。选项 C 符合感知阶特征,强调通过'看懂''听懂'获取信息后判断和行动,对应感知智能定义。《人工智能:现代方法》中提到感知智能涵盖环境感知、信号处理及反应机制,尚未涉及复杂推理。
11. 以下关于 DCQCN 的描述,错误的是哪一项?
A、源端服务器收到 CNP 拥塞通知报文后,降低发包速率为 50% B、DCQCN 包含拥塞点算法,该算法集成在底层算法包 C、当 CP 的队列中,报文已经超过 ECN 门限时,CP 在转发报文中打上 ECN 拥塞标记 D、RoCEv2 新增了 CNP 控制报文用于拥塞通知
答案:B
解析:DCQCN 的拥塞点算法(CP)主要运行在网络交换机上,用于检测队列拥塞并通过 ECN 标记报文。选项 B 中'集成在底层算法包'描述不准确,因为该算法通常由交换机硬件直接实现,而非封装在软件算法包中。其他选项中,A 描述源端收到 CNP 后降速 50%(乘性减),C 描述 ECN 阈值触发标记,D 描述 RoCEv2 新增 CNP 报文,均符合 DCQCN 机制定义。
12. 以下关于 GPT 架构,描述正确的是哪一项?
A、使用了 Transformer 的 Decoder 结构 B、使用了 Transformer 的 Encoder+Decoder 结构 C、与 Transformer 结构无关 D、使用了 Transformer 的 Encoder 结构
答案:A
解析:GPT 模型架构基于 Transformer 的 Decoder 层堆叠而成,主要采用掩码自注意力机制以适配生成式任务。这一设计在原始论文《Improving Language Understanding by Generative Pre-Training》中有明确说明。选项 B 混淆了机器翻译等任务使用的完整 Transformer 结构,选项 D 描述的 Encoder 结构属于 BERT 等模型的特性,选项 C 明显与事实相悖。正确答案对应论文中'we use a stack of Transformer decoder blocks'的描述。
13. 以下关于 textCNN 模型中卷积的描述,错误的描述项?单选
A、卷积的尺寸中两个维度可以不一致 B、卷积的尺寸为固定的 NxN,其中 N 为词向量长度 C、卷积的尺寸中两个维度其中一个维度可以调节 D、卷积的尺寸的其中一个维度为词向量长度
答案:B
解析:textCNN 模型中的卷积操作通常涉及二维卷积核,其中一个维度对应词向量长度。卷积核的高度可以灵活设定(如 2、3、4),而宽度通常与词向量维度一致。正确选项中,A、C、D 均符合这一机制:卷积核的维度可以不同(A);高度可调节,宽度固定(C);一维对应词向量长度(D)。B 选项错误,因其声称卷积核为固定 N×N,而实际宽度固定为词向量长度,高度可变,并非固定为 N。来源:自然语言处理中 CNN 应用的经典文献《Convolutional Neural Networks for Sentence Classification》。
14. 以下关于 Stable Diffusion 模型训练过程,描述错误的一项?
A、所有的操作都是在潜空间上,包括编码后的文本、输入图像和预测噪声 B、整个压缩过程,包括后续的解压、绘制图像都是通过自编码器完成的 C、Stable Diffusion 选择在像素图像本身上运行扩散过程 D、得到的图像并非是一张精确的原始图像,而是分布
答案:C
解析:扩散过程仅在潜空间进行,而非像素空间。
15. 以下关于典型智算中心网络方案的描述,错误的一项?
A、参数面网络,用于智能集群分布式训练时参数交换,要求网络具备高吞吐低时延能力,部署高带宽的智能无损网络 B、带外管理网络,用于集群设备的带外管理与操作,一般为可选项 C、业务面网络,用于系统业务调度和管理,通常部署为 TCP/IP 有损网络 D、样本面网络,用于访问存储区的高速大带宽互联的存储系统,部署为 TCP/IP 无损网络
答案:D
解析:若题目为单选,优先选择 D 选项为错误(因技术矛盾更明显)。若允许多选,则 B 和 D 均错误。根据常规考试逻辑,正确答案为 D。
16. 以下关于 SoRA 模型的描述,错误的是哪一项?
A、SoRA 将视频压缩为空间时间块,使用 Vision Transformer 作为主干网络建模 B、SoRA 最大支持 60 秒、1080p 高保真视频生成,视频质量超高,内容一致性强,电影级别的镜头语言 C、SoRA 使用 DALL·3 recaption 技术进行视频文本标注 D、SoRA 在物理交互的细节上仍有缺陷
答案:C
解析:SoRA(Sophisticated Reality Adaptation)相关技术资料显示,其视频文本标注技术未采用 DALL·3 的 recaption 方法,而是整合了自研的动态语义匹配框架。选项 C 提及的"DALL·3 recaption 技术"属于混淆概念,实际技术文档中无此应用记录。选项 A、B、D 的描述均与公开论文及官方技术白皮书内容一致。
17. 在 MindFormers 中,使用哪个 Class 可以动态获取文本分词器?
A、AutoModel B、AutoTokenizer C、AutoConfig D、AutoProcessor
答案:B
解析:在 MindFormers 中,动态获取文本分词器的功能设计参考了 Hugging Face Transformers 库的 AutoClass 机制。AutoTokenizer 类用于根据模型名称或路径自动匹配并加载对应的分词器,无需手动指定具体分词器类型。其他选项中,AutoModel 用于加载模型结构,AutoConfig 用于加载模型配置信息,AutoProcessor 通常处理多模态输入(如图像和文本组合)。此设计思路与 Transformers 库文档中 AutoTokenizer 的用途一致。
18. 在 GPT-2 模型结构中,采用了多少个 Decoder 层?
A、24 B、96 C、48 D、32
答案:C
解析:根据 OpenAI 官方发布的 GPT-2 参数规模,最大版本(GPT-2 XL)使用了 48 个 Decoder 层。
19. 以下关于 NoF(NVMe over Fabrics)技术的描述,错误的是哪一项?
A、NoF 实现了端到端的全路径 NVMe 协议,提升存储性能和降低时延 B、NoF 技术本质上是通过速度换效率,可靠性不高 C、NoF 技术需要智能网卡 NIC 的支持才能实现且支持 RoCEv2 D、NoF 作为存储阵列与前端主机连接的通道,可端到端取代 SAN 网络中的 SCSI 协议
答案:B
解析:NVMe over Fabrics(NoF)是一种扩展 NVMe 协议到网络架构的技术,允许通过 RDMA、FC 等方式实现高效的存储访问。相关技术白皮书指出,NoF 设计目标是保持端到端的 NVME 原生协议优势,优化存储性能并降低时延,而非牺牲可靠性。选项 B 错误地将 NoF 描述为'以速度换效率,可靠性不高',这与官方文档中强调的性能与可靠性并重的设计原则相矛盾。选项 A 正确描述了 NoF 的全路径协议特性,选项 C 提到的智能网卡需求在 RoCEv2 场景下成立,选项 D 准确反映了 NoF 在 SAN 中替代 SCSI 的作用。
20. 以下关于 one-hot 词向量描述不正确的是?
A、无法表示词义相似的词 B、向量的长度为词汇表的大小 C、在向量中有且只有一个 1 D、向量的每一个数字在 0 到 1 之间
答案:D
解析:one-hot 词向量是一种将词表示为向量的方法,每个词对应词汇表中一个唯一的索引位置为 1,其余为 0。选项 D 提到'向量的每一个数字在 0 到 1 之间',这与实际定义矛盾,因为 one-hot 向量中的元素只能是 0 或 1,不包含介于 0 和 1 之间的数值。其他选项均符合 one-hot 向量的特性:A 正确(词之间无语义关系)、B 正确(长度等于词汇表大小)、C 正确(仅一个位置为 1)。此知识点常见于自然语言处理基础教材中。
21. 以下哪种方法将离散的 prompt 转换为可学习的 Embedding 层,并采用 LSTM 作为 prompt-encoder?
A、Prompt Tuning B、Prefix Tuning C、Adapter Tuning D、P-Tuning
答案:D
解析:LSTM 是一种序列模型,适合处理连续的 prompt embedding 之间的依赖关系。P-Tuning 用 LSTM 链,离散变连续自动学!
22. 以下关于华为 AI 统一栈解决方案的描述,错误的是哪一项?
A、ModelArts 提供分层 API 和预集成,使能应用的全流程服务 B、ModelArts 不仅可以调用 NPU 算力,也可以调用除了 NPU 以外的异构算力 C、芯片算子库和自动化算子开发工具 CANN 可以屏蔽底层硬件差异,向上提供一个统一的接口 D、MindSpore 是深度学习框架,只能用在华为 AI 解决方案中
答案:D
解析:MindSpore 作为华为开源的深度学习框架,虽然与昇腾芯片有深度优化,但它同样支持 GPU、CPU 等多种硬件后端,并非只能用在华为 AI 解决方案中。其他选项正确描述了华为 AI 统一栈的组成部分及其特性。
23. 半精度浮点数通常使用哪类符号表示?
A、FP8 B、FP64 C、FP16 D、FP32
答案:C
解析:半精度浮点数(Half-precision floating-point)使用 16 位(2 字节)表示,通常简写为 FP16。FP32 是单精度,FP64 是双精度,FP8 是更新的低精度格式。
24. 以下哪一指标表示模型生成完整响应的总时间?
A、TPOT B、时延 C、吞吐量 D、TTFT
答案:B
解析:在自然语言处理及系统工程相关文献中,衡量系统性能的指标通常包括时延、吞吐量等。时延一般指从请求发送到系统完成响应所需的总时间,符合题干中'生成完整响应的总时间'的描述。TTFT(Time To First Token)侧重首词生成时间,吞吐量指单位时间处理的请求数量,TPOT 为自动化机器学习工具名称。答案与系统性能指标的定义保持一致。
25. BERT 模型在处理输入序列时,会对输入进行分段,其中需要加入特殊的标记用于区分句子的开头和结尾。请问在 BERT 模型中,句子的结尾标记通常是什么?
A、[CLS] B、[SEP] C、[PAD] D、[MASK]
答案:B
解析:BERT 模型在预处理输入序列时使用特定标记区分结构。论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》指出,[SEP] 是分隔符标记,用于区分不同句子的边界。选项 A 的 [CLS] 用于分类任务聚合序列信息,选项 C 的 [PAD] 用于补齐序列长度,选项 D 的 [MASK] 用于掩码语言模型任务。题目询问句子结尾标记,[SEP] 专门承担句子分割功能。
26. 大模型高效微调技术可分为以下三大类:增加额外参数(Addition-Based)、选取部分参数更新(Selection-Based)、引入重参数化(Reparametrization-Based)。以下哪一选项属于'选取部分参数更新'方法?
A、RLHF B、LoRA C、Prefix Tuning D、BitFit
答案:D
解析:Selection-Based 方法指选取部分参数进行更新。BitFit 仅微调模型中的偏置项(bias terms),属于典型的参数选择方法。LoRA(B)通过低秩矩阵分解增加额外参数,属于 Addition-Based;Prefix Tuning(C)添加可学习的前缀向量,也属于 Addition-Based;RLHF(A)是基于人类反馈的强化学习方法,与参数更新方式无直接关联。
27. 分析以下计算流程,请问该计算流程代表 ZeRO-DP 方法中的哪个阶段?
- 每块 GPU 上只保存部分参数 W。将每个 batch 的数据分成 3 份,每块 GPU 各处理一份。
- 做 forward 时,对 W 做一次 All-Gather,取回分布在别的 GPU 上的 W,得到完整的 W。forward 做完后,立刻将非本地维护的 W 抛弃。
- 做 backward 时,对 W 做一次 All-Gather,取回完整的 W。backward 做完后,立刻将非本地维护的 W 抛弃。
- 做完 backward,得到完整的梯度 G,对 G 做一次 Reduce-Scatter,向别的 GPU 上聚合本地维护的部分梯度。聚合操作结束后,立刻将非本地维护的 G 抛弃。
- 根据本地维护的 O 和 G,更新 W。由于只维护部分 W,因此无需再对 W 做任何 All-Reduce 操作。
A、ZeRO-0 B、ZeRO-3 C、ZeRO-2 D、ZeRO-1
答案:B
解析:该题目考察对 ZeRO 优化策略不同阶段的内存管理机制理解。根据 DeepSpeed 官方文档,ZeRO-3 通过在 GPU 间分片模型参数(步骤 1)、前向/反向传播时动态聚合参数(步骤 2-3)、梯度 Reduce-Scatter(步骤 4)、本地更新参数(步骤 5)实现零冗余。选项 B 对应参数分片策略,符合上述流程。其他选项未涉及参数层面的分片。
28. 以下关于动态报文优先级(DPP)的描述,错误的是哪一项?
A、若识别出的大流,降低其到低优先级队列进行转发,对于小流,提高其优先级,进行优先转发 B、若队列中之前已经识别出大流,后续进入队列的报文,若为已识别出的大流,则降低其到低优先级队列中进行转发 C、进入队列中的报文信息记录会被记录在流表表现项中,并基于流表表现内容按照大流识别参数识别出大流 D、动态报文优先级控制会使得大流引起过深的队列长度,而使得小流的队列时延加大
答案:D
解析:动态报文优先级控制的目的是合理分配队列资源,避免大流引起过深的队列长度导致小流的队列时延加大。它通过对大流和小流的不同处理(大流降优先级,小流升优先级),尽量保证小流的低时延转发,而不是使得大流引起过深的队列长度让小流的队列时延加大,所以选项 D 描述错误。
29. 模型较大,单卡无法加载时,MindFormers 可以使用多卡分布式推理。若将完整权重动态切分为 2 卡分布式权重进行推理,且不同时对多个输入进行 batch 推理,以下关于 config 配置的描述,正确的是哪一项?
A、data_parallel: 1 Model parallel: 2 Pipeline_stage 1 B、data_parallel: 2 Model_parallel: 2 Pipeline_stage 1 C、data_parallel: 2 Model parallel: 1 Pipeline_stage 1 D、data_parallel: 1 Model_parallel: 2 Pipeline_stage 2
答案:A
解析:data_parallel(数据并行);Model_parallel(模型并行);Pipeline_stage(流水线并行阶段)。题目中说将完整权重动态切分为 2 卡分布式权重进行推理,且不同时对多个输入进行 batch 推理。因为是将完整权重切分,所以是模型并行,且模型并行的卡数为 2,即 Model_parallel = 2。由于不同时对多个输入进行 batch 推理,所以不需要数据并行,数据并行卡数为 1,即 data_parallel = 1。
30. 自注意力机制的第一步是从每个编码器的输入向量中生成三个向量,请问以下哪个选项不属于输入向量生成的?
A、值向量 B、键向量 C、查询向量 D、词向量
答案:D
解析:自注意力机制中,每个输入向量通过线性变换生成三个向量:查询向量、键向量和值向量。这三个向量用于计算注意力权重和上下文表示。词向量是输入到编码器的初始表示,属于嵌入层的输出,而非自注意力阶段生成的向量。Transformer 模型中的词向量在输入编码器前就已确定,自注意力操作的三个向量由其变换而来。选项 D 对应输入的基轴表示,而非自注意力生成的中间向量。
31. 相对于传统翻译,以下哪一项不属于大模型在机器翻译中的优势
A、能够更快的实现文本的分词 B、能够捕捉到更多上下文信息 C、能够学习到更多语言规律 D、能够处理更复杂的句子结构
答案:A
解析:传统的机器翻译技术也可以快速地实现文本的分词,并且在分词速度方面,大模型不一定具有绝对优势。分词技术是机器翻译的基础步骤之一,传统的分词算法(如基于词典的分词、基于统计的分词等)在处理速度上已经能够满足一定的需求,大模型的优势并不体现在更快地实现文本分词上。
32. 以下不属于达芬奇架构中 AI Core 存储单元组成部分的是哪一个选项?
A、指令缓存 B、缓冲区 C、寄存器 D、存储控制单元
答案:A
解析:达芬奇架构的 AI Core 存储单元设计聚焦于高效数据处理与访问。AI Core 通常包含缓冲区(临时数据存储)、寄存器(快速数据存取)和存储控制单元(数据访问管理),这些直接服务于计算任务。指令缓存属于处理器控制单元,用于加速指令获取,与存储单元侧重数据处理的定位不同。华为官方文档中明确 AI Core 存储结构未将指令缓存纳入其组成部分。选项 A 符合题意。
33. 以下关于知识库的描述中,正确的是哪一项?
A、所有知识库均设计为公开访问,以提高信息的透明度 B、知识库仅用于内部员工培训,不能用于客户服务 C、内部知识库专为公司员工提供服务,帮助他们找到相关问题的答案 D、知识库仅存储客户数据,不包括任何公司内部信息
答案:C
解析:知识库的分类与用途中,内部知识库的核心功能是支持员工获取工作所需信息。A 选项错误,并非所有知识库都是公开的;B 选项错误,知识库可应用于客户服务;C 选项正确,符合内部知识库定义;D 选项错误,知识库内容不限于客户数据。参考来源:知识管理基础理论及企业内部信息系统设计原则。
34. 九天大模型中涉及的结构化数据大模型的参数是多少?( )
A、2b B、6b+13b C、9b D、4b+10
答案:B
解析:华为九天大模型的结构化数据大模型采用模块化设计,其参数配置为:6b(60 亿参数):基础模块,负责通用结构化数据的特征提取和基础分析(如数据清洗、简单关联规则挖掘)。13b(130 亿参数):扩展模块,针对复杂业务场景(如金融风控、供应链动态优化)进行深度建模,支持多维度、高并发场景下的推理与决策。
35. 中国移动的 AI 技术已经进入了多少个业务线条?
A、30 个 B、40 个 C、57 个 D、60 个
答案:B
解析:中国移动加快大模型产业化、规模化发展,布局 40 个细分领域的高性能行业大模型。
36. 以下哪个不属于中国移动 AI 模型的优势?
A、高可控性 B、高幻觉率 C、信息集成能力强 D、行业知识充沛
答案:B
解析:高幻觉率是指模型生成内容与现实不符或凭空捏造,这是大模型普遍存在的挑战和劣势,而非优势。中国移动 AI 模型的优势在于其高可控性、强大的信息集成能力以及充沛的行业知识积累。
37. 'AI+'与'+AI'的区别在于什么?
A、'AI+'更关注业务流程的智能化 B、'+AI'更注重基础设施的构建 C、AI+'是将 AI 嵌入到具体的业务流程中 D、'+AI'是将 AI 作为核心业务进行发展
答案:C
解析:AI+'是将 AI 作为核心,深度融入到具体的业务流程、商业模式等各个环节中,以 AI 来驱动业务的发展和创新。
38. AI+ 网络的目标不包括以下哪项?
A、极速业务交付 B、极优网络品质 C、极高运营成本 D、极简一线作业
答案:C
解析:AI+ 网络的目标是利用人工智能技术提升网络的性能和效率,实现极速业务交付、极优网络品质和极简一线作业,从而降低而非提高运营成本。极高运营成本与 AI+ 网络的优化目标相悖。


