XIlinx FPGA使用LVDS的电源与电平关键指南

XIlinx FPGA使用LVDS的电源与电平关键指南

针对 7 Series, UltraScale, UltraScale+ FPGAs 以及 MPSoC 器件使用 LVDS 的注意事项:

1. 适用范围

  • 器件系列:7 Series, UltraScale, UltraScale+, Zynq UltraScale+ MPSoC。
  • 涉及 IO 类型:High Performance (HP) Banks, High Range (HR) Banks, High Density (HD) Banks。

2. 电源电压 (VCCO) 与 输入/输出 的限制

这是该指南的核心内容,根据 Bank 类型和是用作输入还是输出,规则有所不同:

A. LVDS 输出 (Outputs)
  • 严格的电压要求:LVDS 输出驱动器对 Bank 电压(VCCO)有严格要求,必须匹配标准电压。
    • HP Banks (LVDS): VCCO 必须为 1.8V
    • HR/HD Banks (LVDS_25): VCCO 必须为 2.5V
  • 不支持 3.3V 输出:这些器件不支持LVDS_33 标准。你不能在 VCCO 为 3.3V 的 Bank 中使用 LVDS 输出。
B. LVDS 输入 (Inputs)
  • 宽松的电压要求:输入端的 VCCO 电压要求相对宽松,可以不完全匹配标准电压,但有前提条件。
    • HP Banks: 即使 VCCO 不是 1.8V,也可以使用 LVDS 输入。
    • HR/HD Banks: 即使 VCCO 不是 2.5V,也可以使用 LVDS_25 输入。
  • 关键限制 (Termination)
    • 如果在 VCCO 电压不匹配的情况下使用 LVDS 输入(例如在 2.5V 或 3.3V 的 Bank 中接收 1.8V LVDS 信号,或在非 2.5V Bank 接收 LVDS_25),必须将 DIFF_TERM 属性设置为 FALSE
    • 这意味着你不能使用片内终端电阻,必须在 PCB 上使用外部差分终端电阻(通常为 100Ω)。

3. 电气参数合规性 (Signal Integrity)

无论 VCCO 如何连接,必须确保驱动端的信号电平满足 FPGA 接收端的规范(参考具体器件的数据手册 Data Sheet):

  • VOD (差分输出电压) & VOCM (共模输出电压):驱动芯片的输出必须落在 FPGA 接收端的 VIDIFFVICM 允许范围内。
  • VIN (输入电压范围):输入信号的绝对电压电平不能超过 Data Sheet 中规定的 VIN 绝对最大额定值(通常与 VCCO 相关,需注意过压风险)。

4. 关于 “LVDS_33” 的特别说明

  • 无原生支持:现代 Xilinx FPGA(7系列及以后)没有 LVDS_33 I/O 标准。
  • 兼容性设计:如果需要连接旧款 FPGA 或其他芯片的 3.3V LVDS 信号:
    • 作为输出:FPGA 无法直接产生 3.3V 供电的 LVDS 信号。
    • 作为输入:只要信号电平(VOD, VOCM)满足 FPGA 接收端的要求,且不超过 Bank 的输入电压容限,通常可以接收。但务必注意共模电压和摆幅是否在 FPGA 允许范围内,并使用外部端接。

5. 双向 LVDS (Bidirectional)

  • 必须同时满足输入和输出的限制。因此,对于双向 LVDS 信号,Bank 的 VCCO 必须严格设置为对应的标准电压(HP Bank 为 1.8V,HR Bank 为 2.5V),且不能利用输入的宽电压容限特性。

总结检查清单 (Checklist)

  1. 确认 Bank 类型:是 HP、HR 还是 HD?
  2. 确认方向:是仅输入、仅输出还是双向?
  3. 检查 VCCO
    • 输出/双向 -> 必须严格匹配 (HP=1.8V, HR=2.5V)。
    • 仅输入 -> 若 VCCO 不匹配,必须禁用内部匹配 (DIFF_TERM = FALSE) 并使用外部电阻。
  4. 检查电平:对照 Data Sheet 检查驱动端的 VOD/VOCM 是否在接收端的 VIDIFF/VICM 范围内。

Read more

Neo4j插件apoc安装及配置(实战经历,一步到位)

Neo4j插件apoc安装及配置(实战经历,一步到位)

目录 apoc插件安装 安装验证 出现的问题 Neo4j版本:Neo4j 5.x apoc版本:同上对应 Neo4j 4.x版本同样适用 apoc插件安装 1.首先查看Neo4j版本(在Neo4j Desktop或命令行中执行): CALL dbms.components() YIELD name, versions RETURN versions;  结果如下: 2.然后去GitHub上下载这个插件 * 访问 APOC GitHub Releases------------ https://github.com/neo4j/apoc/releases/ * 下载与Neo4j版本一致的apoc-x.x.x.x-all.jar文件(例如Neo4j 5.12.0 → APOC 5.

当前机器人在家庭场景落地难在哪里?

当前机器人在家庭场景落地难在哪里?

当前机器人在家庭场景落地难在哪里? 让机器人成为像电影里那样全能的“家庭保姆”,目前还面临着三大核心挑战:技术瓶颈、成本压力和隐私安全。虽然我们在春晚等场合看到了机器人的惊艳表现,但家庭环境的复杂性和不可预测性,让机器人从“舞台表演”到“入户干活”之间还存在巨大鸿沟。 ⚙️ 技术瓶颈:从“专才”到“通才”的跨越 当前机器人最大的短板在于其“大脑”的泛化能力和“身体”的灵巧度不足,难以应对家庭这种非结构化环境。 1. 续航焦虑:目前的消费级机器人续航时间普遍较短,大约只有 1.5至2小时。这对于需要长时间工作的家务或陪伴场景来说远远不够,机器人可能干一会儿就得去充电,无法满足全天候的需求。 2. 精细操作能力弱:机器人的“双手”还不够灵巧。它们可以完成预设好的简单抓取,但在面对“拿起玻璃杯倒水”、“叠衣服”或处理易碎品等需要精细力控和复杂协调的任务时,往往力不从心。行业数据显示,灵巧手的平均寿命甚至不足2个月,远未达到实用化的标准。 3. 环境适应性差:

(10-1)大模型时代的人形机器人感知:视觉-语言模型在机器人中的应用

(10-1)大模型时代的人形机器人感知:视觉-语言模型在机器人中的应用

本章内容聚焦大模型时代人形机器人的感知体系升级,系统介绍了视觉—语言模型、多模态Transformer与3D大模型在机器人中的核心作用,详细讲解了文本、视觉、点云与语音等信息的语义对齐与融合机制,介绍了从语言指令到视觉目标的Grounding、任务分解与意图理解方法,并通过闭环感知与决策联动,展示了大模型支撑机器人在复杂真实场景中的理解、规划与实时行动的用法。 10.1  视觉-语言模型在机器人中的应用 视觉—语言模型(Vision-Language Model,VLM)通过统一建模视觉与自然语言,使机器人具备“看懂并理解语言”的能力,是大模型时代机器人感知与认知融合的核心技术。VLM不仅能够完成图像识别、目标检测等传统感知任务,还可以直接理解语言指令、进行语义推理,并将高层语义映射为可执行的感知与行动目标,在人形机器人中广泛应用于交互理解、场景认知和任务执行等环节。 10.1.1  CLIP/BLIP/Flamingo等模型简介 随着大规模多模态数据与Transformer架构的发展,视觉—语言模型逐渐从“跨模态对齐”演进为“多模态理解与推理”。CLIP、BLIP与Flam

OpenClaw 完整安装与配置文档(包含Minimax/deepseek模型接入、飞书机器人接入)

OpenClaw 完整安装与配置文档 文档说明:本文档适用于 Linux 系统(Debian/Ubuntu 系列),详细梳理 OpenClaw 从基础环境准备、核心程序安装,到模型配置(Minimax/DeepSeek)、飞书渠道对接的全流程,所有交互式配置选项完整呈现,步骤可直接复制执行,适配新手操作。 适用场景:OpenClaw 新手部署、企业内部飞书机器人对接、Minimax/DeepSeek 模型配置 前置说明: 1. 服务器需联网,确保能访问 GitHub、npm、飞书官网; 2. 操作全程使用终端命令行,建议使用远程工具(如 Xshell、Putty)连接服务器; 3. 复制命令时需完整复制,避免遗漏特殊符号; 4. 所有交互式配置选项均完整列出,按文档指引选择即可。 5. 拥有root用户/sudo权限。