【FPGA入坑指南第二章】安装vivado/vitis2023.1软件

【FPGA入坑指南第二章】安装vivado/vitis2023.1软件

本栏目的初心

降低FPGA的门槛,让所有对FPGA感兴趣的,之前望而却步的朋友也能上手玩一玩,体验一下FPGA的世界。【本栏作者贯彻“先进入再深入”的中心思想】

引文

简介

Vivado和Vitis是Xilinx(现为AMD的一部分)推出的两款核心软件工具,它们在FPGA和SoC(系统级芯片)设计中占据着重要地位。这两款软件的推出代表了Xilinx在数字设计领域的持续创新与发展,并且逐步取代了早期的ISE和SDK工具套件。

ISE和SDK的历史背景

在Vivado和Vitis推出之前,Xilinx的ISE(Integrated Software Environment)是FPGA设计的主要开发环境。ISE主要用于Xilinx早期的FPGA系列,如Spartan和Virtex系列。ISE支持从RTL设计、综合、布局布线到生成比特流文件的整个设计流程,但其在时序优化、设计复杂度和开发效率方面逐渐暴露出一些局限性,尤其是对于更高端的FPGA系列和复杂的系统设计。

为了应对更高复杂度的设计需求,Xilinx在2012年推出了Vivado Design Suite,旨在替代ISE并为更先进的FPGA系列(如7系列、UltraScale和UltraScale+)提供支持。Vivado引入了许多创新的设计优化技术,显著提高了开发效率和硬件性能。

同时,Xilinx还推出了SDK(Software Development Kit),用于嵌入式系统的软件开发。SDK主要面向基于Zynq系列FPGA的嵌入式设计,支持操作系统(如Linux)和裸机程序的开发,为开发者提供了全面的软件开发工具和调试支持。随着系统级设计的复杂性增加,SDK与Vivado配合使用,帮助开发者实现硬件与软件的协同开发。

Vivado与Vitis的诞生

Vivado和Vitis的推出代表了Xilinx从传统的硬件设计向更高层次应用开发的转变。Vivado继承了ISE的硬件设计功能,并进一步扩展了支持高效时序优化和高级综合的能力,特别是在7系列和UltraScale FPGA上。与此同时,Vitis作为新一代开发平台,不仅集成了Vivado的硬件设计功能,还增加了对软件开发、AI加速和系统级应用的支持,满足了嵌入式系统开发、AI推理、机器学习等多样化应用的需求。

总的来说,Vivado和Vitis的推出标志着Xilinx在FPGA和SoC开发工具方面的一次重要升级,克服了ISE和SDK时代的局限性,为开发者提供了更高效、更灵活的设计体验,推动了FPGA技术在多个领域的应用。

Vivado/Vitis软件安装

1.查看磁盘的空间是否充足,需要预留200G空间进行安装。

2.选好需要装软件的磁盘(尽量避免选C盘),创建xilinx2023.1文件夹作为安装目录

3.保存百度云安装包或者官网安装包到刚刚创建的xilinx2023.1这个文件夹

4.解压Xilinx_Unified_2023.1_0507_1903这个包,并打开找到xsetup.exe文件双击打开

5.进入安装引导界面第一页,点击NEXT

6.因为我们入坑指南针对的是ZYNQ系列,所以安装的时候选择Vitis选项(不是SOC板子可以选择下面的vivado选项),然后NEXT

7.器件的资源包,这里可以根据自己选择(用哪个器件选哪个资源避免浪费磁盘空间),作者这里磁盘够用就全选了,点击NEXT。

8.同意所有相关条款,NEXT

9.选择刚刚创建的xiinx2023.1文件路径,NEXT,点击Install进行安装

10.进过漫长的等待进度拉满

11.弹出以下对话框证明软件已经安装完成

12.打开软件对软件施展一点magic,点击左上角Help找到License选项

13.跟着图片依次找到load License — copy License — xxx.lic,然后点击打开。

14.确认magic生效,关闭窗口。

15.开始你的FPGA入坑之旅

作者不会按照常规思路让想入坑FPGA的朋友们,先精通Vrilog语法再熟悉软件,等到都精通人已经失去学下去的兴趣和动力了。我的想法是在实践中探索,先玩起来然后产生新奇的想法,修改代码实现功能获得正反馈。长此以往下去!你必成旷世奇才

如安装遇到问题或者需求其他VIVADO版本安装包可以评论区讨论

【本栏都是个人观点,抬杠就是你对】

Read more

AI写作(十)发展趋势与展望(10/10)

AI写作(十)发展趋势与展望(10/10)

一、AI 写作的崛起之势 在当今科技飞速发展的时代,AI 写作如同一颗耀眼的新星,迅速崛起并在多个领域展现出强大的力量。 随着人工智能技术的不断进步,AI 写作在内容创作领域发挥着越来越重要的作用。据统计,目前已有众多企业开始采用 AI 写作技术,其生成的内容在新闻资讯、财经分析、教育培训等领域广泛应用。例如,在新闻资讯领域,AI 写作能够实现对热点事件的即时追踪与快速报道。通过自动化抓取、分析海量数据,结合预设的新闻模板与逻辑框架,内容创作者能够迅速生成高质量的新闻稿,极大地提升了新闻发布的时效性和覆盖面。 在教育培训领域,AI 写作也展现出巨大的潜力。AI 写作助手可以根据用户输入的主题和要求,自动生成文章的大纲和结构,帮助学生和教师快速了解文章的主要内容和逻辑关系,更好地进行后续的写作工作。同时,它还能进行语法和拼写检查、关键词提取和语义分析,提高文章的质量,为学生和教师提供更好的写作支持和服务。 在企业服务方面,AI 智能写作技术成为解决企业内容生产痛点的有效方法之一。它可以帮助企业实现自动化内容生产,提高文案质量和转化率。通过学习和模仿人类的写作风格和语言表达能力

【AI 辅助开发系列】Visual Studio 中 GitHub Copilot 隐私设置:控制代码数据共享边界

Visual Studio 中 GitHub Copilot 的隐私设置概述 GitHub Copilot 在 Visual Studio 中的隐私设置允许用户控制代码片段与云端服务的共享方式,确保敏感数据或私有代码得到保护。以下为关键配置选项及操作方法。 禁用代码片段共享 在 Visual Studio 的设置中,导航至 GitHub Copilot 选项,关闭 “允许 GitHub 使用我的代码片段进行产品改进” 功能。此操作会阻止 Copilot 将本地代码发送至云端分析,但可能影响部分智能补全的准确性。 启用本地数据处理模式 部分场景下需完全禁止网络传输: 1. 在 Visual Studio 的 工具 > 选项 > GitHub Copilot 中勾选 “仅限本地处理”。 2. 确保防火墙规则阻止 githubcopilotd.

最完整llamafile使用指南:从下载到运行仅需3步

最完整llamafile使用指南:从下载到运行仅需3步 【免费下载链接】llamafileDistribute and run LLMs with a single file. 项目地址: https://gitcode.com/GitHub_Trending/ll/llamafile 你还在为部署大语言模型(LLM)时的复杂流程烦恼吗? llama.cpp框架虽强大但配置繁琐,Docker容器又占用过多资源,云服务更是存在数据隐私风险。现在,llamafile彻底解决了这些问题——一个文件即可分发和运行LLM,无需安装依赖,本地执行保障数据安全。本文将带你通过3个简单步骤,从零基础到成功运行自己的AI助手,同时揭秘跨平台兼容的核心技术原理。 准备工作:认识llamafile llamafile是一种革命性的LLM分发格式,它将模型权重、运行时和Web服务打包成单个可执行文件。这种技术基于Mozilla的APE(Application Portable Executable)格式,实现了"一次构建,到处运行"的跨平台能力。

llama.cpp Docker部署:容器化推理服务搭建

llama.cpp Docker部署:容器化推理服务搭建 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 概述 llama.cpp是Facebook LLaMA模型的C/C++移植版本,提供了高效的本地推理能力。通过Docker容器化部署,可以快速搭建稳定、可移植的AI推理服务环境。本文将详细介绍如何使用Docker部署llama.cpp推理服务,涵盖基础部署、GPU加速、生产环境配置等场景。 环境准备 系统要求 * Docker Engine 20.10+ * NVIDIA Container Toolkit(如需GPU支持)