【FPGA入坑指南第二章】安装vivado/vitis2023.1软件

【FPGA入坑指南第二章】安装vivado/vitis2023.1软件

本栏目的初心

降低FPGA的门槛,让所有对FPGA感兴趣的,之前望而却步的朋友也能上手玩一玩,体验一下FPGA的世界。【本栏作者贯彻“先进入再深入”的中心思想】

引文

简介

Vivado和Vitis是Xilinx(现为AMD的一部分)推出的两款核心软件工具,它们在FPGA和SoC(系统级芯片)设计中占据着重要地位。这两款软件的推出代表了Xilinx在数字设计领域的持续创新与发展,并且逐步取代了早期的ISE和SDK工具套件。

ISE和SDK的历史背景

在Vivado和Vitis推出之前,Xilinx的ISE(Integrated Software Environment)是FPGA设计的主要开发环境。ISE主要用于Xilinx早期的FPGA系列,如Spartan和Virtex系列。ISE支持从RTL设计、综合、布局布线到生成比特流文件的整个设计流程,但其在时序优化、设计复杂度和开发效率方面逐渐暴露出一些局限性,尤其是对于更高端的FPGA系列和复杂的系统设计。

为了应对更高复杂度的设计需求,Xilinx在2012年推出了Vivado Design Suite,旨在替代ISE并为更先进的FPGA系列(如7系列、UltraScale和UltraScale+)提供支持。Vivado引入了许多创新的设计优化技术,显著提高了开发效率和硬件性能。

同时,Xilinx还推出了SDK(Software Development Kit),用于嵌入式系统的软件开发。SDK主要面向基于Zynq系列FPGA的嵌入式设计,支持操作系统(如Linux)和裸机程序的开发,为开发者提供了全面的软件开发工具和调试支持。随着系统级设计的复杂性增加,SDK与Vivado配合使用,帮助开发者实现硬件与软件的协同开发。

Vivado与Vitis的诞生

Vivado和Vitis的推出代表了Xilinx从传统的硬件设计向更高层次应用开发的转变。Vivado继承了ISE的硬件设计功能,并进一步扩展了支持高效时序优化和高级综合的能力,特别是在7系列和UltraScale FPGA上。与此同时,Vitis作为新一代开发平台,不仅集成了Vivado的硬件设计功能,还增加了对软件开发、AI加速和系统级应用的支持,满足了嵌入式系统开发、AI推理、机器学习等多样化应用的需求。

总的来说,Vivado和Vitis的推出标志着Xilinx在FPGA和SoC开发工具方面的一次重要升级,克服了ISE和SDK时代的局限性,为开发者提供了更高效、更灵活的设计体验,推动了FPGA技术在多个领域的应用。

Vivado/Vitis软件安装

1.查看磁盘的空间是否充足,需要预留200G空间进行安装。

2.选好需要装软件的磁盘(尽量避免选C盘),创建xilinx2023.1文件夹作为安装目录

3.保存百度云安装包或者官网安装包到刚刚创建的xilinx2023.1这个文件夹

4.解压Xilinx_Unified_2023.1_0507_1903这个包,并打开找到xsetup.exe文件双击打开

5.进入安装引导界面第一页,点击NEXT

6.因为我们入坑指南针对的是ZYNQ系列,所以安装的时候选择Vitis选项(不是SOC板子可以选择下面的vivado选项),然后NEXT

7.器件的资源包,这里可以根据自己选择(用哪个器件选哪个资源避免浪费磁盘空间),作者这里磁盘够用就全选了,点击NEXT。

8.同意所有相关条款,NEXT

9.选择刚刚创建的xiinx2023.1文件路径,NEXT,点击Install进行安装

10.进过漫长的等待进度拉满

11.弹出以下对话框证明软件已经安装完成

12.打开软件对软件施展一点magic,点击左上角Help找到License选项

13.跟着图片依次找到load License — copy License — xxx.lic,然后点击打开。

14.确认magic生效,关闭窗口。

15.开始你的FPGA入坑之旅

作者不会按照常规思路让想入坑FPGA的朋友们,先精通Vrilog语法再熟悉软件,等到都精通人已经失去学下去的兴趣和动力了。我的想法是在实践中探索,先玩起来然后产生新奇的想法,修改代码实现功能获得正反馈。长此以往下去!你必成旷世奇才

如安装遇到问题或者需求其他VIVADO版本安装包可以评论区讨论

【本栏都是个人观点,抬杠就是你对】

Read more

终极免费语音转文本神器:OpenAI Whisper完整使用指南

终极免费语音转文本神器:OpenAI Whisper完整使用指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 想要将会议录音、学习讲座、播客内容快速转换为文字吗?OpenAI Whisper作为当前最先进的语音识别模型,能够高质量完成语音转文本任务,支持多语言识别,特别适合个人用户和中小团队使用。这款开源免费的语音转文本工具让每个人都能享受专业的语音转录服务,无需复杂的配置,只需简单几步即可开始使用。 为什么选择OpenAI Whisper语音识别? 完全免费开源优势:Whisper完全开源,无需付费订阅,让每个人都能享受高质量的语音转文本服务。无论是个人用户还是商业项目,都可以免费使用这个强大的语音识别引擎。 多场景适用性: * 会议记录:自动生成会议纪要,提高工作效率 * 学习笔记:将讲座内容转为文字,方便复习整理 * 内容创作:播客、视频字幕生成,简化后期制作 * 个人助手:语音备忘录文字化,让记录更便捷 技术实力保障:

无脑通过github上copilot学生认证的方法(无需校园网,无需学生证)

无脑通过github上copilot学生认证的方法(无需校园网,无需学生证)

最近在家尝试通过github上的copilot的学生认证,总是不能过。好在经过了12次尝试后,终于总结了一套无需校园网,无需学生证的目前有效的无脑通过方法,希望能对不方便的同学们有所帮助。(注:本文旨在帮助有需求却因为种种情况难以被识别成功的同学,对非学生人士的认证情况概不负责) 一、注册github账号 这里就不细说了,想要通过copilot的大部分都有github账号,如果没有的话可以去网上搜一下。 二、2FA认证通过 认证网址 不是本文的重点,在此引用其他博主的内容: 从0开始的github学生认证并使用copilot教程(超详细!)_github copilot-ZEEKLOG博客 或者一个博客: [Git] 一次搞定:Github 2FA(Two-Factor Authentication/两因素认证) - 千千寰宇 - 博客园 特殊情况 值得注意的是,我在申请2FA时,发生了一个特殊情况——github上的二维码全是白色,没有显示出来,那就不要扫码,下面有一行字:unable to scan……,直接点里面的setup key链接就好了。 三

【原创】使用 Whisper + Transformers 自动生成中英文双语字幕(Python 实战)

【原创】使用 Whisper + Transformers 自动生成中英文双语字幕(Python 实战)

本文将教你如何使用 OpenAI 的 Whisper 语音识别模型,结合 HuggingFace Transformers 翻译模型,实现从视频中提取音频、识别语音、生成中英双语字幕的完整流程。 支持自动语言检测、进度条显示、以及自动生成 .srt 字幕文件。 🧰 一、环境准备 在开始之前,请先安装所需依赖包: pip install openai-whisper transformers pydub librosa tqdm torch ffmpeg-python modelscope ⚠️ 需要提前安装 FFmpeg(Windows 用户请到 ffmpeg.org 下载并配置环境变量) 🧠 二、项目功能概述 本项目实现的流程如下: 1. 提取视频音频(使用 FFmpeg) 2. 验证音频文件是否可用(使用 pydub) 3.

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

目录 一、本篇背景: 二、蓝耘与通义万相 2.1 概述: 2.1蓝耘简介: 2.2通义万相 2.1 简介: 注册并使用蓝耘元生代智算平台: 完成通义万相 2.1部署并调用:  个人代码调用过程及感受: 环境准备: 代码实现: 保存生成的图像: 三、蓝耘与通义万相 2.1 结合的优势: 3.1强大的计算力支撑: 3.2高效的数据处理与传输: 3.3定制化与优化: 四、蓝耘调用通义万相 2.1 API 的实际代码演示: 4.1环境搭建: 4.2图像生成代码示例: 4.3文本生成代码示例: 五、蓝耘与通义万相 2.1