NIC400生成Flow全解析(八)Micro Architechture

当所有配置完成后,就可以生成Micro Architechture了。在Micro Architechture中也会进行一系列配置。比如微架构、timing closure、buffering等配置。
生成Micro Architechture的方法如下:

在这里插入图片描述


生成时需要解决掉所有报错问题后,即可打开Micro Architechture。打开方式如下:

在这里插入图片描述


大致界面如下:

在这里插入图片描述

其中主要包含了如下元素:

  • Micro Architechture窗口
  • Parameter/Timing Closure/Buffering窗口
  • Overlays窗口

1.Micro Architechture窗口

该窗口主要是设定需要的互联微架构,AMBA Designer生成NIC-400时需要手动定义,Socrates生成NIC-400时会根据工具内部算法生成一个微架构。生成后也可以根据自己的需求进行调整。图中的各种标志如下所示:

在这里插入图片描述


Micro Architechture的左边有一排按键,11个按键的含义从上到下依次为:

  • Zoom in:视图放大
  • Zoom out:视图放小
  • Zoom fix:最佳视图
  • Creat Group:创建Group。比如想在两个接口之间,或一个BusMatrix和一个ASIB或AMIB之间连接,则可以选中目标后点击Group
  • Connect:连接不同的组件。
  • Delete:删除组件。
  • Create IB:创建IB,在不同的BusMatrix之间连接时通常会自动创建
  • Create GPV:创建GPV
  • Create Default slave:创建Default slave
  • Optimize Switch:优化BusMatrix结构,丢弃不存在的Path
  • Layout:重新排列视图,使Micro Architechture美观

我们可以自定义微架构,比如想让CPU访问SRAM和FLASH的延时尽可能小,就可以使CPU和FLASH ,SRAM之间只经过一级BusMatrix。自定流程如下:

分别选中2个switch执行Optimize Switch优化不必要的结构,最后点击Layout则可呈现比较规则的Micro Architechture。

在这里插入图片描述

同理,cpu也要访问其他如timer,uart的外设,因此按"Ctrl"先选中switch5再选中switch4,然后点击”Connect“:

在这里插入图片描述


直到Micro Architechture上没有黄色虚线,才表示苏哦有的互联关系都有了实际的电路访问。

由于dma也需要访问flash和sram,因此这里让switch4和switch5之间连接,也就是说,如果DMA想访问flash的话,需要先经过switch5,再经过switch4。按"Ctrl"先选中switch4再选中switch5,然后点击”Connect“:

在这里插入图片描述

按"Ctrl"选中dma、mcu_mstr、APB Group(uart+timer)、ahb_sub、mcu_slv,然后点击”Group“,让其通过1个Bus Matrix互联。

在这里插入图片描述

按"Ctrl"选中cpu、flash、sramc,然后点击”Group“,让其通过1个Bus Matrix互联。

在这里插入图片描述

删除所有生成好的组件,ASIB和AMIB之间以”黄色虚线“连接。此时只是一种虚拟的映射关系,无实际的连接关系。

在这里插入图片描述

Read more

【2025年度创作】分享和总结如何通过AI快速开发一款MCP(模型上下文协议)服务插件,并进行本地和线上部署测试,最后上架MCP以及智能体调用MCP插件

【2025年度创作】分享和总结如何通过AI快速开发一款MCP(模型上下文协议)服务插件,并进行本地和线上部署测试,最后上架MCP以及智能体调用MCP插件

一年一度的ZEEKLOG博客之星活动现已开启!时光飞逝,2025的代码即将合上尾页,指针向前,2026的技术新篇静待启封。这一年,我依然坚持在ZEEKLOG平台持续创作,也见证了AI与智能体领域的持续升温,特别是MCP(模型上下文协议)技术带来的崭新突破。 值此ZEEKLOG平台年度技术盛会之际,博主将撰写一篇技术实战总结型文章,系统分享如何利用AI高效开发MCP服务插件,涵盖从本地调试、线上部署到智能体使用的全流程。 目录 * MCP简介 * 安装插件 * MCP开发 * 创建表 * 提示词 * 启动服务 * 本地部署MCP * 调用测试 * 线上部署 * 上传源码 * 安装Python * 安装依赖 * 启动服务 * nginx反向代理 * 本地测试 * 上架MCP * 使用MCP * MCP和API区别 * 总结 MCP简介 MCP(Model Context Protocol,模型上下文协议) 是专为大语言模型(LLM)应用设计的开放协议,旨在实现 LLM 与外部工具和数据源的无

极速语音识别终极指南:faster-whisper从入门到精通

极速语音识别终极指南:faster-whisper从入门到精通 【免费下载链接】faster-whisper 项目地址: https://gitcode.com/gh_mirrors/fas/faster-whisper 想要在几分钟内将语音转换为文字,而无需复杂的设置过程?faster-whisper作为OpenAI Whisper的优化版本,通过CTranslate2引擎实现了革命性的性能提升,让语音识别变得前所未有的简单和高效。本教程将带你从零开始,掌握这个强大的语音识别工具。 技术原理深度解析 核心架构揭秘 faster-whisper采用分层架构设计,将传统的Transformer模型与高效的推理引擎完美结合。其核心创新在于: * 模型量化技术:通过8位整数量化,在保持精度的同时大幅降低内存占用 * 动态批处理:智能调整批处理大小,充分利用GPU计算资源 * 内存优化策略:采用分块处理机制,避免大音频文件的内存溢出 性能优化机制 与传统Whisper相比,faster-whisper在多个层面进行了优化: 环境搭建完整流程 系统环境检查清单 在

Windows系统如何快速部署llama-cpp-python:AI模型本地推理终极指南

Windows系统如何快速部署llama-cpp-python:AI模型本地推理终极指南 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 在Windows平台部署AI模型推理框架时,开发者常面临编译环境复杂、依赖库缺失、性能优化困难等挑战。本指南采用"痛点分析→配置方案→实践验证→性能调优"的四段式结构,帮助你快速搭建稳定高效的本地AI推理环境。 痛点分析:识别Windows部署核心障碍 编译器配置难题 为什么需要:Windows系统默认不包含C++编译工具链,而llama-cpp-python需要编译底层的C++代码 如何操作:你可以选择以下任一方案 * 简化方案:使用预编译版本,避免编译过程 * 详细方案:安装MinGW或Visual Studio获取完整编译能力 动态链接库缺失 为什么需要:llama.cpp依赖多个底层库,在Windows环境容易出现DLL文件缺失