NIC400生成Flow全解析(八)Micro Architechture

当所有配置完成后,就可以生成Micro Architechture了。在Micro Architechture中也会进行一系列配置。比如微架构、timing closure、buffering等配置。
生成Micro Architechture的方法如下:

在这里插入图片描述


生成时需要解决掉所有报错问题后,即可打开Micro Architechture。打开方式如下:

在这里插入图片描述


大致界面如下:

在这里插入图片描述

其中主要包含了如下元素:

  • Micro Architechture窗口
  • Parameter/Timing Closure/Buffering窗口
  • Overlays窗口

1.Micro Architechture窗口

该窗口主要是设定需要的互联微架构,AMBA Designer生成NIC-400时需要手动定义,Socrates生成NIC-400时会根据工具内部算法生成一个微架构。生成后也可以根据自己的需求进行调整。图中的各种标志如下所示:

在这里插入图片描述


Micro Architechture的左边有一排按键,11个按键的含义从上到下依次为:

  • Zoom in:视图放大
  • Zoom out:视图放小
  • Zoom fix:最佳视图
  • Creat Group:创建Group。比如想在两个接口之间,或一个BusMatrix和一个ASIB或AMIB之间连接,则可以选中目标后点击Group
  • Connect:连接不同的组件。
  • Delete:删除组件。
  • Create IB:创建IB,在不同的BusMatrix之间连接时通常会自动创建
  • Create GPV:创建GPV
  • Create Default slave:创建Default slave
  • Optimize Switch:优化BusMatrix结构,丢弃不存在的Path
  • Layout:重新排列视图,使Micro Architechture美观

我们可以自定义微架构,比如想让CPU访问SRAM和FLASH的延时尽可能小,就可以使CPU和FLASH ,SRAM之间只经过一级BusMatrix。自定流程如下:

分别选中2个switch执行Optimize Switch优化不必要的结构,最后点击Layout则可呈现比较规则的Micro Architechture。

在这里插入图片描述

同理,cpu也要访问其他如timer,uart的外设,因此按"Ctrl"先选中switch5再选中switch4,然后点击”Connect“:

在这里插入图片描述


直到Micro Architechture上没有黄色虚线,才表示苏哦有的互联关系都有了实际的电路访问。

由于dma也需要访问flash和sram,因此这里让switch4和switch5之间连接,也就是说,如果DMA想访问flash的话,需要先经过switch5,再经过switch4。按"Ctrl"先选中switch4再选中switch5,然后点击”Connect“:

在这里插入图片描述

按"Ctrl"选中dma、mcu_mstr、APB Group(uart+timer)、ahb_sub、mcu_slv,然后点击”Group“,让其通过1个Bus Matrix互联。

在这里插入图片描述

按"Ctrl"选中cpu、flash、sramc,然后点击”Group“,让其通过1个Bus Matrix互联。

在这里插入图片描述

删除所有生成好的组件,ASIB和AMIB之间以”黄色虚线“连接。此时只是一种虚拟的映射关系,无实际的连接关系。

在这里插入图片描述

Read more

LLaMA-Factory微调:如何选择正确的精度类型

LLaMA-Factory微调:如何选择正确的精度类型 为什么精度类型选择如此重要 最近在使用LLaMA-Factory进行大模型微调时,我发现一个关键问题:float32和bfloat16这两种精度类型的选择会极大影响训练效果和显存占用。作为开发者,我们需要在模型效果和资源消耗之间找到平衡点。 精度类型决定了模型训练时的数值表示方式,直接影响: - 显存占用大小 - 训练速度 - 模型收敛效果 - 计算稳定性 这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含LLaMA-Factory的预置环境,可快速部署验证不同精度类型的实际表现。 理解float32与bfloat16的核心差异 float32:高精度但高消耗 float32是单精度浮点数,具有以下特点: * 32位存储(1位符号,8位指数,23位尾数) * 数值范围广(约±3.4×10³⁸) * 计算精度高 * 显存占用大(是bfloat16的两倍) bfloat16:平衡精度与效率 bfloat16是Brain Floating Point格式,特点包括: * 16位存储(1位

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软最近发布的 Copilot Cowork 在技术圈炸开了锅。它变了。它不再是那个只会补全代码的插件,而是变成了你的 “Coworker”(同事)。基于 Anthropic 的 Claude 构建,它现在能像真人一样处理复杂任务。 作为开发者,我们不仅要会用,更要懂得背后的原理。今天我们就来拆解一下 Copilot Cowork 的核心逻辑,并教你如何利用 Kotlin 和 147API 构建一个属于自己的简易 AI Agent。 从 Chatbot 到 Agent 传统的 Copilot 就像一个实习生,你给它一个指令,它执行一个动作。而 Copilot Cowork 更像是一个成熟的合作伙伴。它具备了 感知(Perception)、规划(Planning) 和 执行(Execution)

AIGC技术与进展

AIGC技术与进展

AIGC(Artificial Intelligence Generated Content,人工智能生成内容)技术是近年来人工智能领域最具突破性和广泛应用前景的方向之一。它通过深度学习、大模型、多模态融合等核心技术,实现了文本、图像、音频、视频等内容的自动化、智能化生成,正在深刻重塑内容创作、生产方式和人机交互模式。 一、AIGC的发展历程 AIGC的发展大致可分为三个阶段: 1. 早期萌芽阶段(1950s–2010s初) * 主要依赖规则系统和模板方法,如自动摘要、模板新闻。 * 内容形式单一、缺乏灵活性,应用场景有限。 * 代表性事件:1957年首支计算机作曲《Illiac Suite》。 2. 沉淀积累阶段(2010–2020) * 深度学习兴起,GPU算力提升,互联网数据爆发。 * 关键技术突破: * 2014年:生成对抗网络(GAN)提出,推动图像生成质量飞跃。 * 2017年:Transformer架构诞生,奠定大语言模型基础。

开源大模型涨价策略分析:Llama 3.5 与 GLM-5 的商业化博弈

2026年2月12日,智谱AI宣布GLM Coding Plan套餐涨价30%起,同期Meta Llama 3.5的商业授权也在悄然提价。这场看似突然的涨价潮,实则是AI产业从技术狂热转向价值理性的历史性转折。当开发者习惯了"补贴式"廉价API后,涨价公告如同警钟,宣告开源大模型商业化博弈进入深水区。 行业背景:供需逆转下的价格逻辑重构 过去两年中国大模型产业深陷惨烈"百模大战"。字节豆包曾将API定价压至0.0008元/千tokens的行业冰点,阿里通义千问GPT-4级模型降价97%,整个市场陷入"谁先涨价谁就输"的囚徒困境,企业靠融资补贴维持运营。 2026年供需关系根本逆转: 1. Agent需求爆发:大模型从聊天玩具变为生产力工具,GLM Coding Plan上线即售罄 2. 企业付费意愿提升:智谱企业级客户贡献六成毛利,AI工具ROI清晰可见 3. 算力通胀传导:从英伟达B200涨价、存储成本上升到云服务提价(AWS、