基于Zynq FPGA对雷龙SD NAND的测试

基于Zynq FPGA对雷龙SD NAND的测试

一、SD NAND 特征

1.1 SD 卡简介

雷龙的 SD NAND 有很多型号,在测试中使用的是 CSNP4GCR01-AMW 与 CSNP32GCR01-AOW。芯片是基于 NAND FLASH 和 SD 控制器实现的 SD 卡。具有强大的坏块管理和纠错功能,并且在意外掉电的情况下同样能保证数据的安全。

其特点如下:

  • 接口支持 SD2.0 2 线或 4 线;
  • 电压支持:2.7V-3.6V;
  • 默认模式: 可变时钟速率 0 - 25MHz,高达 12.5 MB/s 的接口速度 (使用 4 条并行数据线)
  • 高速模式: 可变时钟速率 0 - 50MHz,高达 25 MB/s 的接口速度 (使用 4 条并行数据线)
  • 工作温度:-40°C ~ +85°C
  • 存储温度:-55°C ~ +125°C
  • 待机电流小于 250uA
  • 修正内存字段错误;
  • 内容保护机制——符合 SDMI 最高安全标准
  • SDNAND 密码保护 (CMD42 - LOCK_UNLOCK)
  • 采用机械开关的写保护功能
  • 内置写保护功能 (永久和临时)
  • 应用程序特定命令
  • 舒适擦除机制

该 SD 卡支持 SDIO 读写和 SPI 读写,最高读写速度可达 25MB/s,实际读写速度要结合 MCU 和接口情况实测获得。通常在简单嵌入式系统并对读写速度要求不高的情况下,会使用 SPI 协议进行读写。但不管使用 SDIO 还是 SPI 都需要符合相关的协议规范,才能建立相应的文件系统;

1.2 SD 卡 Block 图

该 SD 卡封装为 LGA-8;引脚分配与定义如下;在这里插入图片描述:

image-20241106234505040

二、SD 卡样片

与样片同时寄来的还有转接板,转接板将 LGA-8 封装的芯片转接至 SD 卡封装,这样只需将转接板插入 SD 卡卡槽即可使用。

在这里插入图片描述:

image-20241106234515418

三、Zynq 测试平台搭建

  • 测试平台为 Xilinx 的 Zynq 7020 FPGA 芯片;
  • 板卡:Digilent Zybo Z7
  • Vivado 版本:2018.3
  • 文件系统:FATFS
  • SD 卡接口:SD2.0

3.1 测试流程

本次测试主要针对 4G 和 32G 两个不同容量的 SD 卡,在 Zynq FPGA 上搭建 SD 卡读写回路,从而对

Read more

近五年体内微/纳米机器人赋能肿瘤精准治疗综述:以 GBM 为重点

近五年体内微/纳米机器人赋能肿瘤精准治疗综述:以 GBM 为重点

摘要 实体瘤治疗长期受制于递送效率低、肿瘤组织渗透不足以及免疫抑制与耐药等问题。传统纳米药物多依赖被动累积与扩散,难以在肿瘤内部形成均匀有效的药物浓度分布。2021–2025 年,体内微/纳米机器人(包括外场驱动微型机器人、自驱动纳米马达以及生物混合机器人)围绕“运动能力”形成了三条相互收敛的技术路线: 其一,通过磁驱、声驱、光/化学自驱等方式实现运动增强递药与深层渗透,将治疗从“被动到达”推进到“主动进入”; 其二,与免疫治疗深度融合,实现原位免疫唤醒与肿瘤微环境重塑; 其三,针对胶质母细胞瘤(glioblastoma, GBM)等难治肿瘤,研究趋势转向“跨屏障递送(BBB/BBTB)+ 成像/外场闭环操控 + 时空可控释放”的系统工程。 本文围绕“运动—分布—疗效”的因果链条,总结 2021–2025 年代表性研究与关键评价指标,讨论临床转化所需的安全性、

HarmonyOS 5.0物联网开发实战:基于星闪(NearLink)技术的智能家居边缘计算网关

HarmonyOS 5.0物联网开发实战:基于星闪(NearLink)技术的智能家居边缘计算网关

文章目录 * 每日一句正能量 * 前言 * 一、物联网通信技术演进与星闪机遇 * 1.1 传统智能家居痛点 * 1.2 星闪(NearLink)技术架构 * 二、系统架构设计 * 2.1 核心模块划分 * 三、核心代码实现 * 3.1 星闪(NearLink)接入管理 * 3.2 边缘AI推理引擎 * 3.3 智能场景引擎 * 四、网关主界面实现 * 五、总结与物联网价值 每日一句正能量 自律是反人性的,所以,刚开始的几秒,势必会挣扎,打退堂鼓,但只要克服了,之后的神清气爽,会让你感谢自己最初那几秒的坚持。 前言 摘要: 本文基于HarmonyOS 5.0.0版本,

技术拆解:《从音频到动效:我是如何用 Web Audio API 拆解音乐的?》

技术拆解:《从音频到动效:我是如何用 Web Audio API 拆解音乐的?》

🎵 从音频到动效:我是如何用 Web Audio API 拆解音乐的? 「家人们谁懂啊!写完音乐可视化项目后,我终于搞懂了电脑是怎么『听懂』音乐的!今天就把最硬核的『音频解析』部分扒得干干净净,连代码带原理一起唠明白~」 做这个 HTML5 实时音频可视化项目时,参考了 ZEEKLOG 上《基于 HTML5 Canvas 与 Web Audio API 的实时音频可视化工具开发》这篇文章的核心技术框架,主要借鉴了 Web Audio API 中 AnalyserNode 的基础使用、FFT 频域转换的流程以及 Canvas 实时渲染的基础思路,帮我快速搭好了项目的底层骨架。 但在实际开发中,我在原基础上做了不少可视化效果的扩展和细节设计的打磨,新增了自己想要的可视化表现形式,也针对实际使用中的小问题做了定制化优化,让整个工具的视觉效果和使用体验更贴合自己的设计需求,下面具体说说我做的这些扩展和优化。 一、先看效果:

Clawdbot(Moltbot)源码部署全实测:从环境搭建到 WebChat 验证,避坑指南收好

Clawdbot(Moltbot)源码部署全实测:从环境搭建到 WebChat 验证,避坑指南收好

一、为啥折腾 Clawdbot? 最近刷技术圈总刷到 Clawdbot(后来也叫 Moltbot),说是能搭私人 AI 助手,支持 WhatsApp、Telegram 这些常用通道,还能跑在自己设备上,不用依赖第三方服务 —— 想着拉下来测试一下功能,顺便研究一下其源码的实现。 于是拉上 GitHub 仓库https://github.com/openclaw/openclaw,打算从源码部署试试,过程里踩了不少坑,干脆整理成记录,给同样想折腾的朋友避避坑。 二、源码部署前的准备:Windows 环境优先选 WSL2 一开始想直接用 Windows CMD 部署,结果装依赖时各种报错,查仓库文档才发现 Windows 推荐用 WSL2(Ubuntu/Debian 镜像就行),后续操作全在 WSL2 里完成: 1.