FPGA小白学习日志一:LED的点亮

1.工程准备

首先建立一个名为led的工程文件夹,文件夹下包含了doc、quartus_prj、rtl、sim四个子文件夹:

那么我们来分析各个文件夹包含了什么:

doc:该文件夹主要包含了文档资料、数据手册、Visio波形等,相当于档案库;
quartus_prj:该文件夹主要包括了使用Quartus II软件新建的工程,相当于操作台;
rtl:该文件夹主要放置生成硬件电路的代码,相当于原材料;
Sim:该文件夹放置对生成硬件电路代码的仿真文件,相当于质检室;

    这四个文件夹各自完成不同的分工,但是它们之间有什么联系呢?答案是:他们之间通过路径关联和文件引用,形成一个完美的FPGA开发闭环。quartus_prj作为工程中枢,向上访问doc读取说明,向下访问rtl获取硬件代码,向外访问sim获取仿真脚本;sim向上访问rtl在逻辑上验证硬件代码的正确性。

2.设计过程

   无论我们使用FPGA做什么类型的项目时,我们都要参照一个具体的流程,这里就介绍我自己的开发流程:

1.看手册和原理图,搞清楚我们需要实现什么功能,就像做饭时我们需要看食谱,要知道自己吃什么。
2.搞清楚要吃什么了以后,我们就要开始选食材,选调料了,这样我们才能炒出来一盘好菜,这就对应着我们要新建工程,选好工程对应的开发芯片。这里我用的是野火的Altera EP4CE10 征途Mini开发板。
3.接下来我们就要开始炒菜了,也就是说我们要去写代码,运用Verilog代码实现电路功能。
4.相信大家炒完菜之后都会用筷子夹起一些尝一尝,评定炒的这盘菜好不好吃,能不能上桌,要不要重炒,也就是说我们写完代码以后,要去编译代码、写仿真软件测试是否有逻辑错误。
5.菜没问题以后呢,我们就要盛出来上桌了,那么是要盛到盘子里呢还是盛到盆子里呢,不同的菜我们也要分配好容器才好,也就是说在我们测试仿真完以后啊,就要分配硬件引脚了,这样我们的工程才能正常跑出来。
   
   其实我们用FPGA做项目和炒菜流程是差不多的,这样有了具体的流程以后,我们就按着这个思路来实现led这个工程项目的实现。

3.工程实现

(1)看食谱

        首先,我们来看食谱,看看我们需要吃什么菜,这里要打开开发板的原理图,找到“按键”和“LED”这两个模块,这里取KEY1与LED1:

        


                                                                       按键电路

                               

                               

                                                                  LED电路

我们来分析一下这两个原理图,看看他们是怎么共同实现led灯点亮的:
 
当SW2按键松开时,1、2与3、4不导通,此时KEY1被拉低到GND低电平,发出低电平信号key_in为0,对应的FPGA输入引脚接收0信号,并给LED电路发送0信号,LED1电路收到0信号后,输出低电平信号led_out为0,led灯不亮;
当SW2按键按下时,1、2与3、4导通,此时KEY1被拉高到3V3高电平,发出高电平信号key_in为1,对应的FPGA输入引脚接收1信号,并给LED电路发送1信号,LED1电路收到1信号后,输出高电平信号led_out为1,led灯亮。

接着我们在VIsio中绘制我们led功能框图和波形图,这里我们就不过多介绍了,相信大家看完上述我们对led电路实现的解析后很容易理解下面两个框图。   


                


                                                             led功能框图

                   


          
                                                              led波形图
 

  记得做完以后保存到doc文件夹中。 就此,我们的工程前提工作已经就绪了,也就是说我们看完菜谱已经知道自己要吃什么了,接下来我们就要新建工程,开始备菜了。

(2)备菜

接着,我们在Quartus中新建工程,工程要放到quartus_prj文件夹中:       

               

            对于以下页面,野火官方文档中只做了简要说明,这里主播解释一下:其实就是把我们写好的代码文件和新建工程绑定在一起,Quartus只有在列表里看到了这个文件,才会去读取他,生成对应的电路。不过我们还没有开始写代码,所以目前就不用添加代码文件了。

                    

接下来是器件选择,我们这里也来做个解释:
1.Family是器件族,就是说我们使用的哪类芯片,这个在FPGA板芯片上有介绍,这里主播使用的是Cyclone IV E系列芯片
2.Packege是封装类型,这里我们选的是Any QFP封装,这时候就有读者要问了:“配置为什么和野火官方文档给的不一样呢”,其实主播这块板CPU型号是EP4CE10E22C8N ,我们来对这串数值进行拆解:

a)EP4CE是产品系列,也就是上面Family中选择的芯片型号:Cyclone IV 系列E型
b)后面的10就是10k个逻辑单元
c)再后面的E就是EQFP类型封装,归类在QFP大类下,所以我们在Package中选择的是Any QFP封装
d)22就对应着Pin count中的引脚数量,即144个
e)C对应着工作温度,0-85°,这个我们可做了解
f)8则对应着速度等级,也就是Speed grade中的8
g)N就是工艺标识,无铅工艺,这个我们也只做简要了解

    相信看完这个,大家已经懂得怎么去读一个FPGA CPU型号了,同时在主播给大家讲解的过程中,我们也把工程配置好了。对于下面的Available devices,我就不做详细解说了。主播要说的是,在新建工程中的配置一定要和CPU严格对应好,不然是很影响后面的编译结果的。
                                               


         


            
(3)炒菜

看完食谱备好食材了之后呢,我们就要开始炒菜了,也就是要写代码。但是要在哪里炒菜呢,在哪里写代码呢?当然就是Notepad++了。此时,我们在rtl文件夹下新建一个名为led.v的文本文件,然后用Notepad++打开。
           

  大家回想一下第一步在工程准备中我们对quartus_prj文件夹的介绍:“quartus_prj作为工程中枢.....向下访问rtl获取硬件代码”,也就是说,我们编写完代码以后,还要让quartus_prj这个文件夹访问提取使用才可以,那怎么才能实现这个流程呢?接下来我们就要回到Quartus软件,将我们编写的代码(led.v文本文件)添加到工程中,这样quartus_prj就可以访问rtl获取硬件代码了,具体的步骤主播就不展示了,在野火官方文档有详细介绍。至此,炒菜部分我们就完成了。

(4)品尝

      菜炒好以后呢,我们就要夹起一些品尝了,也就是说,我们要去对代码进行编译和仿
这里主播不做步骤解释了,我们来简要看一下这个任务栏(Task)是干啥的:

a)Start Project: 工程初始化,包含新建工程、选择芯片型号、添加源文件等等,也就是说我们可以从这里面新建工程、打开已有工程等等。
b)Create Design: 设计输入与文件管理的核心入口,就是说我们可以从这里面新建代码文件、打开已有代码文件等。
c)Assign Constraints: 主要是导入约束文件、进行引脚分配等。
d)Compile Design :这个负责代码语法检查-布局布线-生成下载文件-时序分析-下载到开发板,讲明白点就是做了一些我们“尝菜”的部分操作。    
e)Verify Design :则是整个工程的收尾操作,负责打包整个led工程,也就是归档,然后导出工程数据库                                                

                           

                                 

说完了这些,我们来看看RTL视图,所谓RTL视图,就是将我们写的代码转换成硬件电路:            

                                            


                       
可以看出,这和我们在Visio软件中设计的led电路是一样的,同时代码编译也是没有问题的。完成这一步之后呢,我们就要去做仿真测试了。那么有些读者就会问,明明RTL视图已经和我们的设计电路一样的,那为什么还要做仿真测试呢?其实RTL视图做的就是将我们的代码综合成硬件电路,但是我们是不知道电路输入和输出的状态的,因此我们就要跑仿真,证明代码逻辑在实际运行中是正确的。
此处的仿真代码与文件添加主播就不再多述了,但是主播要在这里向大家解释一下输出网表的概念,因为在官方文档中频繁出现。所谓输出网表,说白了就是把我们的代码翻译成FPGA能读懂的硬件电路而已,所以“输出网表的语言格式”就是Verilog语言咯,“输出网表的时间单位”就是做仿真时的时间单位。相信主播这样解释,大家更能理解得通。

                                                                    仿真波形

在得到仿真波形以后,对比我们在Visio中绘制的波形图,是一模一样的。也就是说,RTL视图和Modelsim的仿真,无论是硬件电路还是输入输出波形都与我们的初始设计高度吻合,因此,“品尝”这一步我们已经做好了。

(4)装盘
   
仿真这一步我们做的已经没有问题了,接着我们就要分配引脚了,就是具体看按键SW1和LED1具体分配在电路板上的哪些引脚。因为EP4CE10E22C8N型CUP是把key_in和led_out 两个分配到IOBANK_3里面了,因此主播的引脚配置和官方文档不太相同,如下:
key_in <Input> @ IOBANK_3
led_out <Output> @ IOBANK_3

                      

         最后呢,主播提醒大家一下,尤其是我们在分配引脚时,一定一定要参考手册或者原理图来,不然轻则工程无发实现,重则芯片烧毁。至此,我们已经装盘了,后续的步骤主播就不进行讲解了,还请大家参照官方文档来。本文章不仅记录主播的FPGA学习之路,还想能为各个读者提供部分个人解答,共同进步。

Read more

深入解析VR与AR:从技术原理到未来图景

引言 虚拟现实(VR)和增强现实(AR)正逐步从科幻概念演变为改变我们工作、娱乐和社交方式的核心技术。它们通过数字内容与现实世界的融合,重塑了人机交互的边界。本文将系统分析两者的定义、技术架构、应用场景、当前挑战及未来趋势,帮助您全面理解这一变革性领域。 一、核心定义与区别 维度虚拟现实 (VR)增强现实 (AR)混合现实 (MR)概念完全由计算机生成的虚拟环境,用户沉浸其中,与物理世界隔绝将数字信息叠加到真实世界之上,用户同时看到虚实内容数字对象与真实世界实时交互,并相互影响(AR的进阶)沉浸感完全沉浸(封闭式)部分沉浸(透视式)虚实融合,具有空间锚定和物理交互典型设备Oculus Quest, HTC Vive, PlayStation VRMicrosoft HoloLens, Google Glass, 手机AR(ARKit/ARCore)Microsoft HoloLens 2, Magic Leap核心技术头显显示、

OpenClaw机器人引爆天网,首次拥有记忆,逆天了!

OpenClaw机器人引爆天网,首次拥有记忆,逆天了!

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! OpenClaw这款开源机器人最近彻底火了,它让机器人第一次有了“记性”。这种原本只在科幻片里出现的“天网”级技术,居然直接在GitHub上公开了源代码。 就在刚刚,全球搞开源机器人的圈子被推特上的一条动态给点燃了! 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! 视频里,一台装了OpenClaw系统的宇树人形机器人在屋里四处走动。它全身上下都是传感器——激光雷达、双目视觉外加RGB相机,这些设备捕捉到的海量数据都被喂进了一个大脑里。 紧接着,奇迹发生了:这台宇树机器人竟然开始理解空间和时间了!这种事儿在以前的机器人身上压根没出现过。 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! 它不仅分得清房间、人和东西都在哪儿,甚至还记得在什么时间点发生了什么事。 开发团队给这种神技起名叫“空间智能体记忆”。简单来说,就是机器人从此以后也有了关于世界的“长期记忆”! 而把这种科幻照进现实的,正是最近在国际上大红大紫的开源项目OpenClaw。

人脸识别核心算法深度解析:FaceNet与ArcFace从原理到实战

本文深入剖析人脸识别领域两大里程碑算法——Google的FaceNet和InsightFace的ArcFace,从数学原理、损失函数设计到完整PyTorch实现,帮你彻底理解现代人脸识别技术的核心。 一、引言:人脸识别的本质问题 1.1 人脸识别 ≠ 图像分类 初学者常有的误解:把人脸识别当作分类问题。 ❌ 错误思路:分类方法 输入人脸 → CNN → Softmax → 输出"这是第1532号人" 问题: 1. 类别数巨大(十亿级身份) 2. 无法处理新注册的人(需要重新训练) 3. 每个人样本极少(很难训练好分类器) ✅ 正确思路:度量学习方法 输入人脸 → CNN → 特征向量(embedding) → 与数据库比对 优势: 1. 只需学习"什么是相似",不需要预定义类别 2. 新人注册只需提取特征,无需重新训练

基于无人机遥感的植被覆盖度测量实践与经验分享

基于无人机遥感的植被覆盖度测量实践与经验分享

分享基于无人机遥感的植被覆盖度测量实验经验,主要任务是利用大疆Mavic 3无人机进行植被覆盖度地面测量,包含样方设计、航线规划、现场拍摄以及借助AI算法计算覆盖度。 一、实验概况与目的 实验测量的植被覆盖度(Fractional Vegetation Cover, FVC)定义为植被地上部分垂直投影面积占统计区总面积的百分比,是反映生态环境状态的重要参量,传统地面测量耗时耗力,而无人机遥感凭借其高机动性和高分辨率成为主流手段。本次实验的主要目的是: * 掌握无人机遥感监测的标准化操作流程 * 学习植被覆盖度地面测量的技术方法 * 熟悉使用AI(DeepSeek算法)完成植被覆盖度计算 * 总结无人机监测中的常见问题及解决方案二、技术方法与工作流程 二、技术方法与工作流程 2.1 植被覆盖度地面测量技术简介 植被覆盖度指单位面积内植被冠层(叶、茎、枝)垂直投影面积所占的比例。目前最常用的地面测量方法是照相法——利用数码相机或无人机拍摄样方照片,然后通过图像识别计算植被像素占比。本次实验采用无人机垂直向下拍摄小样方(1m×1m),再通过算法批量计算覆盖度。 2.