华为人工智能HCIP-AI Solution Architect H13-323题库(26年最新,带解析知识点)

华为人工智能HCIP-AI Solution Architect H13-323题库(26年最新,带解析知识点)

刚考完HCIP-AI Solution Architect H13-323,整理的题库给大家参考学习。完整版题库已经发在题主小程序上了,需要的同学可以去绿泡泡上找“题主”小程序。

以下哪个不是MindSpore核心架构的特点?

A、自动微分

B、自动调优

C、自动编码

D、自动并行

答案:C

解析:MindSpore核心架构以自动微分、自动并行和自动调优为主要特点,支持端边云全场景的AI开发。“自动编码”并非其核心架构的特点。

标签:MindSpore,自动微分,自动并行,自动调优

如果你想使用 Hugging Face Transformers 库中的预训练模型进行 DeepSpeed 训练,请对以下步骤进行排序,正确的是哪一项?

步骤:

1. 创建一个TrainingArguments对象,并在其中指定包括DeepSpeed配置在内的训练参数。

2. 创建Trainer对象。

3. 加载预训练模型。

4. 传递模型和训练参数,开始训练。

5. 从Transformers库中导入相关工具包。

A、51324

B、52134

C、51234

D、53214

答案:A

解析:Hugging Face Transformers库中结合DeepSpeed训练的流程通常遵循:导入工具包→配置训练参数→加载模型→初始化Trainer→启动训练。参考Transformers官方文档的Trainer和DeepSpeed集成示例,正确顺序为先导入所需模块(步骤5),创建包含DeepSpeed配置的TrainingArguments(步骤1),随后加载预训练模型(步骤3),实例化Trainer时传入参数和模型(步骤2),最后调用训练方法(步骤4)。选项A的51324符合该流程。

标签:Hugging Face,Transformers,DeepSpeed,训练流程,Trainer

当函数在向量空间的某凸点处,沿着哪个方向有最大的变化率?

A、梯度

B、最小方向导数

C、方向导数

D、导数

答案:A

解析:函数在向量空间某一凸点处沿梯度方向的变化率最大,这一结论与数学理论、几何直观及技术实践完全一致。

标签:梯度,方向导数,数学基础,优化算法

假设我们有某个包含两个句子的文本片段,分别为:“Tony 喜欢吃苹果”,“He likes eating apples”。现在我们使用预训练的 BERT 模型对这个文本片段进行编码,然后将句子“Tony”和“He”分别作为查询,通过 BERT 计算两个句子的相似度得分。最后巴层的输出向量将如何影响计算结果?

A、最后一层输出向量捕捉了整个文本片段的含义,对相似度得分影响较大

B、最后一层输出向量主要捕捉了单个句子的信息,对相似度得分影响有限

C、最后一层输出向量会区分两个句子的关键词,对相似度得分影响较小

D、最后一层输出向量对相似度得分没有影响,因为相似度计算只依赖于词级别表示

答案:A

解析:BERT模型通过多层自注意力机制处理输入文本,最后一层的输出向量聚合了所有层的上下文信息,编码了整个文本片段的深层语义关联。原始论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》指出,最后一层向量具备更丰富的上下文表征能力。选项A正确,因为相似度计算依赖整体语义,最后一层向量融合了跨句信息(如“He”指代“Tony”),直接影响得分。选项B、C错误,BERT不局限于单句或关键词;选项D错误,相似度计算基于上下文而非词级嵌入。

标签:BERT,最后一层输出,上下文嵌入,相似度计算

以下哪个选项不是 Megatron-LM 并行框架支持的功能?

A、ZeRO数据并行

B、张量并行

C、流水线并行

D、BF16优化器

答案:A

解析:Megatron-LM 的原生并行功能:张量并行(B)和流水线并行(C)是 Megatron-LM 的核心原生功能,直接支持模型参数的分布式计算。BF16 优化器(D)属于混合精度训练技术,Megatron-LM 原生支持此类计算优化。ZeRO 数据并行是 DeepSpeed 的特性,而非 Megatron-LM 原生支持的功能。

标签:Megatron-LM,模型并行,张量并行,流水线并行,ZeRO

tf.keras.metrics的内置指标不包括的方法有?

A、mean

B、Accuracy

C、Recall

D、Sum

答案:A

解析:TensorFlow的tf.keras.metrics模块提供多种内置评估指标。根据官方文档,内置指标如Accuracy(计算准确率)、Recall(计算召回率)、Sum(累加结果)均为直接可调用的类。而mean并非独立的内置指标类,它通常通过Mean方法或作为其他指标的内部计算结果存在。选项A的mean未直接作为标准指标类提供。

标签:TensorFlow,Keras,评估指标,Accuracy,Recall

HiAI 对第三方开发者开放的资源包叫

A、HiAI DDR

B、HiAI DDK

C、HiAI SDK

D、HiAI JDK

答案:B

解析:华为HiAI平台为第三方开发者提供的资源包命名遵循其官方技术文档中的定义。HiAI DDK(Device Development Kit)专指面向设备端的AI能力开发套件,包含模型转换、算子开发等工具链。其他选项如DDR(内存相关术语)、SDK(通用软件开发工具包)、JDK(Java开发工具包)均不符合华为官方对HiAI生态组件的命名规范。该命名方式在《华为HiAI Foundation开发指南》的“开发环境准备”章节有明确说明。

标签:HiAI,DDK,开发套件,第三方开发

在大型语言模型的训练中,哪项技术能够通过模拟人类解决问题的思维过程来增强模型的推理能力?

A、联邦学习

B、强化学习

C、思维链

D、迁移学习

答案:C

解析:在大型语言模型训练中,模拟人类逐步推导的推理过程可通过特定技术实现。思维链(Chain of Thought)源于对复杂问题分步解答的研究,通过生成中间推理步骤而非直接输出最终答案,帮助模型更接近人类逻辑思考模式。联邦学习侧重数据隐私保护,强化学习依赖环境反馈机制,迁移学习聚焦跨任务知识复用,三者均不直接关联分步推理。思维链技术尤其适用于需要逻辑推导的任务,例如数学问题或多步骤推理场景。(来源:相关研究如Google团队提出的Chain of Thought Prompting for Large Language Models, 2022

标签:思维链,CoT,推理能力,大模型,提示工程

ModelArts服务与()服务结合可以轻松将模型部署到“端”?

A、OBS

B、ORC

C、ECS

D、HiLens

答案:D

解析:ModelArts训练模型后,通过HiLens的端侧框架(如技能开发、设备管理)可直接将模型轻量化并推送至终端设备。

标签:ModelArts,HiLens,模型部署,端侧推理

人工智能处在感知智能阶段的表现是什么?

A、机器开始像人类一样能理解、思考与决策

B、机器开始像人类一样会计算,传递信息

C、机器开始看懂和听懂,做出判断,采取一些简单行动

D、机器开始有情感和意识

答案:C

解析:感知阶指机器具备初步感知能力,能处理视觉、听觉等信息并执行简单行动。选项A描述的是更高阶段的认知能力,涉及理解与决策;选项B侧重基础计算与信息传递,属于更早期阶段。选项C符合感知阶特征,强调通过“看懂”“听懂”获取信息后判断和行动,对应感知智能定义。《人工智能:现代方法》中提到感知智能涵盖环境感知、信号处理及反应机制,尚未涉及复杂推理。

标签:人工智能,感知智能,认知智能,计算智能

以下关于 DCQCN 的描述,错误的是哪一项?

A、源端服务器收到CNP拥塞通知报文后,降低发包速率为50%

B、DCQCN包含拥塞点算法,该算法集成在底层算法包

C、当CP的队列中,报文已经超过ECN门限时,CP在转发报文中打上ECN拥塞标记

D、RoCEv2新增了CNP控制报文用于拥塞通知

答案:B

解析:DCQCN的拥塞点算法(CP)主要运行在网络交换机上,用于检测队列拥塞并通过ECN标记报文。选项B中“集成在底层算法包”描述不准确,因为该算法通常由交换机硬件直接实现,而非封装在软件算法包中。其他选项中,A描述源端收到CNP后降速50%(乘性减),C描述ECN阈值触发标记,D描述RoCEv2新增CNP报文,均符合DCQCN机制定义。

标签:DCQCN,拥塞控制,RoCEv2,ECN,数据中心网络

以下关于GPT架构,描述正确的是哪一项?

A、使用了Transformer的Decoder结构

B、使用了Transformer的Encoder+Decoder结构

C、与Transformer结构无关

D、使用了Transformer的Encoder结构

答案:A

解析:GPT模型架构基于Transformer的Decoder层堆叠而成,主要采用掩码自注意力机制以适配生成式任务。这一设计在原始论文《Improving Language Understanding by Generative Pre-Training》中有明确说明。选项B混淆了机器翻译等任务使用的完整Transformer结构,选项D描述的Encoder结构属于BERT等模型的特性,选项C明显与事实相悖。正确答案对应论文中“we use a stack of Transformer decoder blocks”的描述。

标签:GPT,Transformer,Decoder,大模型,生成式模型

以下关于textCNN模型中卷积的描述,错误的描述项?单选

A、卷积的尺寸中两个维度可以不一致

B、卷积的尺寸为固定的NxN,其中N为词向量长度

C、卷积的尺寸中两个维度其中一个维度可以调节

D、卷积的尺寸的其中一个维度为词向量长度

答案:B

解析:textCNN模型中的卷积操作通常涉及二维卷积核,其中一个维度对应词向量长度。卷积核的高度可以灵活设定(如2、34),而宽度通常与词向量维度一致。正确选项中,A、C、D均符合这一机制:卷积核的维度可以不同(A);高度可调节,宽度固定(C);一维对应词向量长度(D)。B选项错误,因其声称卷积核为固定N×N,而实际宽度固定为词向量长度,高度可变,并非固定为N。来源:自然语言处理中CNN应用的经典文献《Convolutional Neural Networks for Sentence Classification》。

标签:textCNN,卷积神经网络,文本分类,卷积核

以下关于Stable Diffusion模型训练过程,描述错误的一项?

A、所有的操作都是在潜空间上,包括编码后的文本、输入图像和预测噪声

B、整个压缩过程,包括后续的解压、绘制图像都是通过自编码器完成的

C、Stable Diffusion选择在像素图像本身上运行扩散过程

D、得到的图像并非是一张精确的原始图像,而是分布

答案:C

解析:扩散过程仅在潜空间进行,而非像素空间。

标签:Stable Diffusion,潜空间,扩散模型,自编码器

以下关于典型智算中心网络方案的描述,错误的一项?

A、参数面网络,用于智能集群分布式训练时参数交换,要求网络具备高吞吐低时延能力,部署高带宽的智能无损网络

B、带外管理网络,用于集群设备的带外管理与操作,一般为可选项

C、业务面网络,用于系统业务调度和管理,通常部署为TCP/IP有损网络

D、样本面网络,用于访问存储区的高速大带宽互联的存储系统,部署为TCP/IP无损网络

答案:D

解析:若题目为单选,优先选择 D 选项为错误(因技术矛盾更明显)。若允许多选,则 B 和 D 均错误。根据常规考试逻辑,正确答案为 D。

标签:智算中心,网络方案,参数面,业务面,样本面,无损网络

以下关于 SoRA 模型的描述,错误的是哪一项?

A、SoRA将视频压缩为空间时间块,使用 Vision Transformer 作为主干网络建模

B、SoRA最大支持60秒、1080p高保真视频生成,视频质量超高,内容一致性强,电影级别的镜头语言

C、SoRA使用DALL 3 recaption技术进行视频文本标注

D、SoRA在物理交互的细节上仍有缺陷

答案:C

解析:SoRA(Sophisticated Reality Adaptation)相关技术资料显示,其视频文本标注技术未采用DALL·3的recaption方法,而是整合了自研的动态语义匹配框架。选项C提及的"DALL·3 recaption技术"属于混淆概念,实际技术文档中无此应用记录。选项A、B、D的描述均与公开论文及官方技术白皮书内容一致。

标签:SoRA,视频生成,Vision Transformer,文本标注

在MindFormers中,使用哪个Class可以动态获取文本分词器?

A、AutoModel

B、AutoTokenizer

C、AutoConfig

D、AutoProcessor

答案:B

解析:在MindFormers中,动态获取文本分词器的功能设计参考了Hugging Face Transformers库的AutoClass机制。AutoTokenizer类用于根据模型名称或路径自动匹配并加载对应的分词器,无需手动指定具体分词器类型。其他选项中,AutoModel用于加载模型结构,AutoConfig用于加载模型配置信息,AutoProcessor通常处理多模态输入(如图像和文本组合)。此设计思路与Transformers库文档中AutoTokenizer的用途一致。

标签:MindFormers,AutoTokenizer,分词器,自动加载

在GPT-2模型结构中,采用了多少个Decoder层?

A、24

B、96

C、48

D、32

答案:C

解析:根据OpenAI官方发布的GPT-2参数规模,最大版本(GPT-2 XL)使用了48个Decoder层。

标签:GPT-2,Decoder层,模型结构

以下关于 NoF(NVMe over Fabrics)技术的描述,错误的是哪一项?

A、NoF实现了端到端的全路径NVMe协议,提升存储性能和降低时延

B、NoF技术本质上是通过速度换效率,可靠性不高

C、NoF技术需要智能网卡NIC的支持才能实现且支持RoCEv2

D、NoF作为存储阵列与前端主机连接的通道,可端到端取代SAN网络中的SCSI协议

答案:B

解析:NVMe over Fabrics(NoF)是一种扩展NVMe协议到网络架构的技术,允许通过RDMA、FC等方式实现高效的存储访问。相关技术白皮书指出,NoF设计目标是保持端到端的NVME原生协议优势,优化存储性能并降低时延,而非牺牲可靠性。选项B错误地将NoF描述为“以速度换效率,可靠性不高”,这与官方文档中强调的性能与可靠性并重的设计原则相矛盾。选项A正确描述了NoF的全路径协议特性,选项C提到的智能网卡需求在RoCEv2场景下成立,选项D准确反映了NoF在SAN中替代SCSI的作用。

标签:NoF,NVMe over Fabrics,存储网络,RDMA,RoCEv2

以下关于one-hot词向量描述不正确的是?

A、无法表示词义相似的词

B、向量的长度为词汇表的大小

C、在向量中有且只有一个1

D、向量的每一个数字在0到1之间

答案:D

解析:one-hot词向量是一种将词表示为向量的方法,每个词对应词汇表中一个唯一的索引位置为1,其余为0。选项D提到“向量的每一个数字在0到1之间”,这与实际定义矛盾,因为one-hot向量中的元素只能是0或1,不包含介于0和1之间的数值。其他选项均符合one-hot向量的特性:A正确(词之间无语义关系)、B正确(长度等于词汇表大小)、C正确(仅一个位置为1)。此知识点常见于自然语言处理基础教材中。

标签:词向量,one-hot,文本表示,自然语言处理

以下哪种方法将离散的 prompt 转换为可学习的 Embedding 层,并采用 LSTM 作为 prompt-encoder?

A、Prompt Tuning

B、Prefix Tuning

C、Adapter Tuning

D、P-Tuning

答案:D

解析:LSTM 是一种序列模型,适合处理连续的 prompt embedding 之间的依赖关系。P-Tuning用LSTM链,离散变连续自动学!

标签:P-Tuning,Prompt Tuning,LSTM,提示学习,高效微调

以下关于华为AI统一栈解决方案的描述,错误的是哪一项?

A、ModelArts提供分层API和预集成,使能应用的全流程服务

B、ModelArts不仅可以调用NPU算力,也可以调用除了NPU以外的异构算力

C、芯片算子库和自动化算子开发工具CANN可以屏蔽底层硬件差异,向上提供一个统一的接口

D、MindSpore是深度学习框架,只能用在华为AI解决方案中

答案:D

解析:MindSpore作为华为开源的深度学习框架,虽然与昇腾芯片有深度优化,但它同样支持GPU、CPU等多种硬件后端,并非只能用在华为AI解决方案中。其他选项正确描述了华为AI统一栈的组成部分及其特性。

标签:华为AI,统一栈,ModelArts,CANN,MindSpore,异构计算

半精度浮点数通常使用哪类符号表示?

A、FP8

B、FP64

C、FP16

D、FP32

答案:C

解析:半精度浮点数(Half-precision floating-point)使用16位(2字节)表示,通常简写为FP16。FP32是单精度,FP64是双精度,FP8是更新的低精度格式。

标签:半精度,FP16,浮点数,数据精度

以下哪一指标表示模型生成完整响应的总时间?

A、TPOT

B、时延

C、吞吐量

D、TTFT

答案:B

解析:在自然语言处理及系统工程相关文献中,衡量系统性能的指标通常包括时延、吞吐量等。时延一般指从请求发送到系统完成响应所需的总时间,符合题干中“生成完整响应的总时间”的描述。TTFT(Time To First Token)侧重首词生成时间,吞吐量指单位时间处理的请求数量,TPOT为自动化机器学习工具名称。答案与系统性能指标的定义保持一致。

标签:时延,性能指标,TTFT,吞吐量

BERT模型在处理输入序列时,会对输入进行分段,其中需要加入特殊的标记用于区分句子的开头和结尾。请问在BERT模型中,句子的结尾标记通常是什么?

A、[CLS]

B、[SEP]

C、[PAD]

D、[MASK]

答案:B

解析:BERT模型在预处理输入序列时使用特定标记区分结构。论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》指出,[SEP]是分隔符标记,用于区分不同句子的边界。选项A的[CLS]用于分类任务聚合序列信息,选项C的[PAD]用于补齐序列长度,选项D的[MASK]用于掩码语言模型任务。题目询问句子结尾标记,[SEP]专门承担句子分割功能。

标签:BERT,特殊标记,[SEP],自然语言处理

大模型高效微调技术可分为以下三大类:增加额外参数(Addition-Based)、选取部分参数更新(Selection-Based)、引入重参数化(Reparametrization-Based)。以下哪一选项属于“选取部分参数更新”方法?

A、RLHF

B、LoRA

C、Prefix Tuning

D、BitFit

答案:D

解析:Selection-Based方法指选取部分参数进行更新。BitFit仅微调模型中的偏置项(bias terms),属于典型的参数选择方法。LoRA(B)通过低秩矩阵分解增加额外参数,属于Addition-Based;Prefix Tuning(C)添加可学习的前缀向量,也属于Addition-Based;RLHF(A)是基于人类反馈的强化学习方法,与参数更新方式无直接关联。

标签:高效微调,BitFit,参数选择,LoRA,Prefix Tuning,RLHF

分析以下计算流程,请问该计算流程代表ZeRO-DP方法中的哪个阶段?

1) 每块GPU上只保存部分参数W。将每个batch的数据分成3份,每块GPU各处理一份。

2) 做forward时,对W做一次All-Gather,取回分布在别的GPU上的W,得到完整的W。forward做完后,立刻将非本地维护的W抛弃。

3) 做backward时,对W做一次All-Gather,取回完整的W。backward做完后,立刻将非本地维护的W抛弃。

4) 做完backward,得到完整的梯度G,对G做一次Reduce-Scatter,向别的GPU上聚合本地维护的部分梯度。聚合操作结束后,立刻将非本地维护的G抛弃。

5) 根据本地维护的O和G,更新W。由于只维护部分W,因此无需再对W做任何All-Reduce操作。

A、ZeRO-0

B、ZeRO-3

C、ZeRO-2

D、ZeRO-1

答案:B

解析:该题目考察对ZeRO优化策略不同阶段的内存管理机制理解。根据DeepSpeed官方文档,ZeRO-3通过在GPU间分片模型参数(步骤1)、前向/反向传播时动态聚合参数(步骤2-3)、梯度Reduce-Scatter(步骤4)、本地更新参数(步骤5)实现零冗余。选项B对应参数分片策略,符合上述流程。其他选项未涉及参数层面的分片。

标签:ZeRO,DeepSpeed,分布式训练,内存优化,参数分片

以下关于动态报文优先级(DPP)的描述,错误的是哪一项?

A、若识别出的大流,降低其到低优先级队列进行转发,对于小流,提高其优先级,进行优先转发

B、若队列中之前已经识别出大流,后续进入队列的报文,若为已识别出的大流,则降低其到低优先级队列中进行转发

C、进入队列中的报文信息记录会被记录在流表表现项中,并基于流表表现内容按照大流识别参数识别出大流

D、动态报文优先级控制会使得大流引起过深的队列长度,而使得小流的队列时延加大

答案:D

解析:动态报文优先级控制的目的是合理分配队列资源,避免大流引起过深的队列长度导致小流的队列时延加大。它通过对大流和小流的不同处理(大流降优先级,小流升优先级),尽量保证小流的低时延转发,而不是使得大流引起过深的队列长度让小流的队列时延加大,所以选项 D 描述错误。

标签:动态报文优先级,DPP,流量控制,队列管理

模型较大,单卡无法加载时,MindFormers 可以使用多卡分布式推理。若将完整权重动态切分为 2 卡分布式权重进行推理,且不同时对多个输入进行 batch 推理,以下关于 config 配置的描述,正确的是哪一项?

A、data_parallel: 1 Model parallel: 2 Pipeline_stage 1

B、data_parallel: 2 Model_parallel: 2 Pipeline_stage 1

C、data_parallel: 2 Model parallel: 1 Pipeline_stage 1

D、data_parallel: 1 Model_parallel: 2 Pipeline_stage 2

答案:A

解析:data_parallel(数据并行);Model_parallel(模型并行);Pipeline_stage(流水线并行阶段)。题目中说将完整权重动态切分为 2 卡分布式权重进行推理,且不同时对多个输入进行 batch 推理。因为是将完整权重切分,所以是模型并行,且模型并行的卡数为 2,即 Model_parallel = 2。由于不同时对多个输入进行 batch 推理,所以不需要数据并行,数据并行卡数为 1,即 data_parallel = 1

标签:MindFormers,分布式推理,模型并行,数据并行,配置

自注意力机制的第一步是从每个编码器的输入向量中生成三个向量,请问以下哪个选项不属于输入向量生成的?

A、值向量

B、键向量

C、查询向量

D、词向量

答案:D

解析:自注意力机制中,每个输入向量通过线性变换生成三个向量:查询向量、键向量和值向量。这三个向量用于计算注意力权重和上下文表示。词向量是输入到编码器的初始表示,属于嵌入层的输出,而非自注意力阶段生成的向量。Transformer模型中的词向量在输入编码器前就已确定,自注意力操作的三个向量由其变换而来。选项D对应输入的基轴表示,而非自注意力生成的中间向量。

标签:自注意力,Transformer,查询向量,键向量,值向量,词向量

相对于传统翻译,以下哪一项不属于大模型在机器翻译中的优势

A、能够更快的实现文本的分词

B、能够捕捉到更多上下文信息

C、能够学习到更多语言规律

D、能够处理更复杂的句子结构

答案:A

解析:传统的机器翻译技术也可以快速地实现文本的分词,并且在分词速度方面,大模型不一定具有绝对优势。分词技术是机器翻译的基础步骤之一,传统的分词算法(如基于词典的分词、基于统计的分词等)在处理速度上已经能够满足一定的需求,大模型的优势并不体现在更快地实现文本分词上。

标签:大模型,机器翻译,分词,上下文信息,语言规律

以下不属于达芬奇架构中 AI Core 存储单元组成部分的是哪一个选项?

A、指令缓存

B、缓冲区

C、寄存器

D、存储控制单元

答案:A

解析:达芬奇架构的 AI Core 存储单元设计聚焦于高效数据处理与访问。AI Core 通常包含缓冲区(临时数据存储)、寄存器(快速数据存取)和存储控制单元(数据访问管理),这些直接服务于计算任务。指令缓存属于处理器控制单元,用于加速指令获取,与存储单元侧重数据处理的定位不同。华为官方文档中明确 AI Core 存储结构未将指令缓存纳入其组成部分。选项 A 符合题意。

标签:达芬奇架构,AI Core,存储单元,指令缓存

以下关于知识库的描述中,正确的是哪一项?

A、所有知识库均设计为公开访问,以提高信息的透明度

B、知识库仅用于内部员工培训,不能用于客户服务

C、内部知识库专为公司员工提供服务,帮助他们找到相关问题的答案

D、知识库仅存储客户数据,不包括任何公司内部信息

答案:C

解析:知识库的分类与用途中,内部知识库的核心功能是支持员工获取工作所需信息。A选项错误,并非所有知识库都是公开的;B选项错误,知识库可应用于客户服务;C选项正确,符合内部知识库定义;D选项错误,知识库内容不限于客户数据。参考来源:知识管理基础理论及企业内部信息系统设计原则。

标签:知识库,内部知识库,知识管理,企业应用

九天大模型中涉及的结构化数据大模型的参数是多少?( )

A、2b

B、6b+13b

C、9b

D、4b+10

答案:B

解析:华为九天大模型的结构化数据大模型采用模块化设计,其参数配置为:6b(60亿参数):基础模块,负责通用结构化数据的特征提取和基础分析(如数据清洗、简单关联规则挖掘)。13b(130亿参数):扩展模块,针对复杂业务场景(如金融风控、供应链动态优化)进行深度建模,支持多维度、高并发场景下的推理与决策。

标签:九天大模型,结构化数据,大模型参数

中国移动的AI技术已经进入了多少个业务线条?

A、30个

B、40个

C、57个

D、60个

答案:B

解析:中国移动加快大模型产业化、规模化发展,布局 40 个细分领域的高性能行业大模型。

标签:中国移动,AI,业务线条,行业大模型

以下哪个不属于中国移动AI模型的优势?

A、高可控性

B、高幻觉率

C、信息集成能力强

D、行业知识充沛

答案:B

解析:高幻觉率是指模型生成内容与现实不符或凭空捏造,这是大模型普遍存在的挑战和劣势,而非优势。中国移动AI模型的优势在于其高可控性、强大的信息集成能力以及充沛的行业知识积累。

标签:中国移动,AI模型,优势,幻觉

“AI+”与“+AI”的区别在于什么?

A、“AI+”更关注业务流程的智能化

B、“+AI”更注重基础设施的构建

C、AI+”是将AI嵌入到具体的业务流程中

D、“+AI”是将AI作为核心业务进行发展

答案:C

解析:AI+”是将 AI 作为核心,深度融入到具体的业务流程、商业模式等各个环节中,以 AI 来驱动业务的发展和创新。

标签:AI+,+AI,业务智能化,AI驱动

AI+网络的目标不包括以下哪项?

A、极速业务交付

B、极优网络品质

C、极高运营成本

D、极简一线作业

答案:C

解析:AI+网络的目标是利用人工智能技术提升网络的性能和效率,实现极速业务交付、极优网络品质和极简一线作业,从而降低而非提高运营成本。极高运营成本与AI+网络的优化目标相悖。

标签:AI+网络,业务交付,网络品质,运营成本

Read more

构建AI临床副驾驶:基于Go的电子病历智能助手与HIS对接实战(上)

构建AI临床副驾驶:基于Go的电子病历智能助手与HIS对接实战(上)

摘要 本文旨在为医疗信息化开发者提供一套可落地的“AI临床副驾驶”设计方案,通过Go语言构建一个轻量、高效的中间层服务,与医院现有的HIS/EMR系统无缝对接。我们聚焦于三个典型智能场景——复诊记忆延伸、首诊导航提醒、病历质控与术语规范,展示如何在不侵入原有系统的情况下,为医生提供实时、精准的辅助决策信息。文章涵盖总体架构设计、多种HIS对接方式(REST/HL7/FHIR/DB视图)、接口契约定义、关键业务流程、完整的Go代码骨架,以及安全合规、部署运维等实践要点。所有代码均基于生产环境经验提炼,可作为项目直接启动的参考原型。 目录 1. 引言:电子病历的“副驾驶”时代 2. 总体架构:Go中间层 + HIS主系统 1. 设计原则 2. 组件划分

By Ne0inhk
山东大学《Web数据管理》期末复习宝典【万字解析!】

山东大学《Web数据管理》期末复习宝典【万字解析!】

🌈 个人主页:十二月的猫-ZEEKLOG博客 🔥 系列专栏:🏀山东大学期末速通专用_十二月的猫的博客-ZEEKLOG博客 💪🏻 十二月的寒冬阻挡不了春天的脚步,十二点的黑夜遮蔽不住黎明的曙光  目录 1. 第二章 网络爬虫 1.1 爬虫基础知识 1.2 爬虫分类 1.3 开源工具 Nutch 2. 第三章 网页分析 2.1 正则表达式 2.2 DOM模型 2.3 Beautiful Soup工具 2.4 Scrapy框架 2.5 不同爬虫工具比较 2.6 元搜索引擎 3. 第四章 爬虫与网站的博弈 3.1 Robot协议 3.

By Ne0inhk
04_Dify 单独启动前端 Docker 容器

04_Dify 单独启动前端 Docker 容器

前言 本文介绍了在前后端分离开发场景下,部署Dify前端服务的两种Docker化方案。一是直接使用官方DockerHub镜像启动前端容器,支持最新版或指定版本,并配置后端API地址;二是通过源码本地构建自定义镜像后再启动。两种方法均通过环境变量配置控制台与应用的API连接,并提供了本地访问验证方式,适合后端开发者专注业务逻辑时快速启用前端界面。 一、直接使用 DockerHub 镜像 当单独开发后端时,可能只需要源码启动后端服务,而不需要本地构建前端代码并启动,因此可以直接通过拉取 docker 镜像并启动容器的方式来启动前端服务。 1.1 启动后端服务 查看教程:👉 Dify开源版使用源代码本地启动(一至五部分) 查看教程:👉 dify-plugin-daemon使用源码启动图文教程 1.2 使用 DockerHub 镜像启动前端 Docker 容器 获取最新版本 docker run -it -p 3000:3000 -e CONSOLE_API_URL=http://127.0.0.

By Ne0inhk

JSP基础1:客户端请求端,前端和后端的联系(半成品)

JSP虽然是20年前的老框架,它的存在是为了讲解前后端不分离,在前端html,css中可以嵌入兼容java后端代码,类似的有vue3 下面的看不懂先跳过 问题如下:request对象 = 后端创建,封装前端发送的数据或请求. 还有哪些对象可以对前后端互相发送的请求做处理.哪些对象可以进行前后端交互 在Java Web开发中,主要使用以下对象处理前后端交互:(JSP很老的框架没必要都学把下面能让你理解前后端交互的学了就行) 对象创建位置主要作用数据流向request服务器端封装请求信息前端→后端response服务器端封装响应信息后端→前端session服务器端维护用户会话双向application服务器端全局共享数据双向Cookie服务器端创建,前端存储小数据持久化双向 选择建议:临时数据传递 → request用户状态保持 → session小数据持久化 → Cookie全局数据共享 → application 以上内容看不懂先跳过 1. "客户端"的含义 在 request 对象的上下文中,"客户端"指的是: * 浏览器(Chrome、Firefox、E

By Ne0inhk