FPGA光通信2——Aurora 64B/66B的开发使用

FPGA光通信2——Aurora 64B/66B的开发使用

可参考GZH:小蘇的FPGA

        FPGA光通信的开发过程中,最简便的方式为Aurora 64B66B,开发人员无需关注2bit同步头,加解扰等过程,开放给开发人员的主要是AXI-Stream用户数据接口。

        Aurora是一款可扩展的轻量级、高数据速率链路层高速串行通信协议,支持全双工或单工,支持64B/66B,8B/10B编码。

一、Aurora 64B/66B使用介绍

        该核的使用架构主要如下:借助xilinx 核,开发人员可根据用户接口实现多通道间的光通信。最大支持16lane。

1.1 、IP核的介绍

        参考PG074, 该核的内部结构如下:

        其中,Lane logic:每个GT收发器由一个lane逻辑模块实例驱动,初始化每个收发器,处理控制字符的编解码,并执行错误检测。

        Global logic: 全局逻辑模块执行通道绑定以进行通道初始化。在运行过程中,该通道跟踪Aurora 64B/66B协议定义的Not Ready空闲字符,并监控所有通道逻辑模块的错误。

        RX user interface: AXI4-Stream接收用户数据从通道移动到应用程序,并执行流控制功能。

        TX user interface: AXI4-Stream发送用户数据从应用程序移动到通道,并执行TX的流量控制功能。

1.1.1、接口

        IP核如下(不同版本界面有差异,但含义相同):

        主要的接口信息如下,具体含义可查看PG074。

        用户数据接口:USER_DATA_S_AXIS_TX(数据发送)、USER_DATA_M_AXIS_RX(数据接收)

        GT BANK管脚:GT_SERIAL_RX、GT_SERIAL_TX、REFCLK

        控制接口:CORE_CONTROL(回环模式等)

        控制接口:CORE_STATUS

        重配置端口:GT_DRP(比如动态切换线速率场景)

        剩下的为复位、时钟接口:

        INIT_CLK:初始化时钟,来源不同于GT BANK;

        USER_CLK/SYNC_CLK:用户时钟,LineRate × LaneNum x (64/66)/LaneWide,其中USER_CLK为用户收发数据时钟;

        pma_init和reset_pb:复位信号,后文介绍。

       时钟关系如下:

1.1.2 、复位

        复位接口为pma_init和reset_pb,高电平复位释放前要求INIT_CLK和REFCLK保持稳定;先释放pma_init(gt_reset),后释放reset_pb(reset),reset_pb的释放同步于USER_CLK,pma_init复位信号同步于INIT_CLK。

        pma_init的复位会重置收发器的所有物理编码子层(PCS)和物理介质附件(PMA)子组件,即会先复位高速收发器,后复位内核逻辑。而reset_pb只会复位内核逻辑,不会复位底层的高速收发器。先释放pma_init,后释放reset_pb。

        不同模式下,复位时序不一样,本文只介绍双工模式的复位时序:上电阶段复位、其他复位。

        双工模式下的正常复位时序如上图所示,先把reset_pb拉高128个时钟周期,然后再拉高pma_init一段时间。之后先拉低pma_init,最后拉低Reset_pb信号。

        如下图所示:双工模式下reset_pb拉高的最短时间为128个user_clk周期。经过一段时间后,channel_up被拉低,表示传输通道建立失效。

        

        如下图所示:双工模式下的pma_init(gt_reset)复位时序,pma_init至少拉高128个init_clk周期。经过一些时钟周期后,user_clk会暂停产生时钟(因为user_clk的时钟来源是GT收发器txoutclk,pma_init复位从底层的物理层复位)。随后拉低channel_up信号,表示传输通道建立失效。

1.1.3 、初始化

        初始化过程如下:

        Lane up表示通道中的哪些通道已完成通道初始化。仅当所有通道和内部逻辑完成整个初始化过程后,channel_up才会被拉高。Aurora 64B/66B内核可以在Channel_up拉高之前接收数据,但Channel_up拉高之前不能发送数据,可把Channel_up取反用作全双工模式下发送端的复位信号。

1.1.4 、控制及状态接口

        loopback:      回环模式,实际使用一般接到0;

        000:normal;001: Near-end PCS Loopback;010: Near-end PMA Loopback;100: Far-end PMA Loopback;110: Far-end PCS Loopback

        power down: 高电平有效。当其为高时,GT会进入非工作、低功耗的模式。使用的时一般直接拉低。

        pll_not_locked 接 ~pll_locked ;

        lane_up:        "1”状态指示各通道初始化成功,每位代表一个通道

        channel_up:  “ 1”状态指示通道初始化完成,通道已准备好进行数据传输

        hard_err:       主要是硬件类错误

        soft_err:        主要是软件类错误

        frame_err:     当前通道帧协议错误

1.1.5 、数据接口

        该核支持两类数据接口:

        Framing接口:在AXI4-Stream的基础上IP核自动加入帧头、帧尾,并在固定时间内完成时钟补偿,但是会降低传输效率和使用较多资源。

        Streaming接口:简化的AXI4-Stream接口,只有数据有效、握手和数据信号,此种方式传输效率高,但无法保证传输的准确性。

           本文只介绍Frame类型接口,即用户接口类型为AXIS模式。由于64B/66编码,aurora的设计上在发送端需要ready信号握手。发送端用户只需要在发送、接收双方完成握手后,即可发送数据,通信双方均可通过握手信号来反压对方;接收端用户仅需要在valid信号有效时从总线上拿数据即可

        当s_axi_tx_tready反压与s_axi_tx_tvalid握手成功后,即可发送数据,使用s_axi_tx_tlast来表示当前发送最后一个数据,s_axi_tx_tkeep来表示最后一个数据的有效字节。

        接收数据:当m_axi_rx_tvalid为高时,接收的数据是有效数据,可以拿来用了,m_axi_rx_tkeep与m_axi_rx_tlast的用法与发送端对应的信号一致。

1.2 IP核配置

        根据本人开发板原理图配置如下:

    GT Refclk :GT参考时钟,板子时钟为156.25Mhz

    Lane Rate : 以10.3125Gbps作为测试

    INIT clk    :初始化时钟,根据工程自行选择设计

    GT位置及lane数目:根据板子原理图设计

    Dataflow Mode:选择全双工

    Interface:Framing类型

    流控:不使用

        little Ednian support:小端数据(小端:[15:0] 大端:[0:15])

        动态重配置接口类型

        Debug信号

        CRC功能

        Shared Logic:设置IP的逻辑放置的位置,如果GT REFCLK没被别的serdes使用,两种模式都行,否则建议In example design模式。

         In core:在IP核内:support、复位、时钟等逻辑包含在ip内

         In example design:在例子中,support、复位、时钟等逻辑都在ip外

1.3 参考例子

        主要参考support、复位、时钟的使用。

        support模块:包含了对时钟、复位、IP等的例化处理等一系列操作;在应用中此部分可不需要修改。

        frame_gen数据生成模块,采用LFSR的方式生成伪随机序列;在实际工程中替换为自己的数据模块即可。

        frame_check数据检验模块,对接收的数据进行检验以验证传输的正确性;在实际工程中替换为自己的数据模块即可。

二、工程设计、测试

2.1 、工程设计

        按照上述配置的上进行设计,收发数据流程为,当Channel_up拉高后,可通过VIO使能控制data_test_module测试数据模块产生测试数据。

        data_test_module:当FIFO非空时写入递增数据,根据AXIS接口的ready反压信号读FIFO到Aurora IP核。

2.2 、仿真测试

        对上述工程进行自回环收发仿真测试:

        初始化及收发过程:

        复位关系、状态信号:

        发数据:ready和valid

        收数据主要关注data、valid、last、keep等信号。

2.3 、上板测试

        通过VIO使能控制data_test_module测试数据模块产生测试数据。

        接收到的数据:与发送数据一一对应。

三 、 总结

        有需要代码的请私聊。

可参考GZH:小蘇的FPGA

FPGA实现Aurora光通信应用(8B/10B)

UltraScale/+ FPGA实现万兆网的两种方式:GT核、10G Ethernet Subsystem核

FPGA实现100G UDP通信

FPGA 40G/50G Ethernet Subsystem核的使用

FPGA实现千兆网UDP协议(含ARP、ICMP)

JESD204B的使用系列——3、DAC的应用(AD9164 9.6GSPS)

JESD204B的使用系列——2、协议及ADC的应用(AD9689)

JESD 204B的使用系列—1、时钟芯片的应用

FPGA外挂存储器应用3——NVMe协议 M.2硬盘的读写功能测试

Read more

GLM-4.7 & MiniMax M2.1 限免上线!工程级 Agent 模型正式接入 AI Ping

GLM-4.7 & MiniMax M2.1 限免上线!工程级 Agent 模型正式接入 AI Ping

前言:从"能生成"到"能长期跑"的工程级大模型 大模型产业落地阶段,工程交付稳定性与长时 Agent 运行效率成为核心衡量标准,GLM-4.7 与 MiniMax M2.1 作为国产模型两条差异化成熟路线的代表,跳出单轮生成质量局限,聚焦真实场景长期稳定运行能力。AI Ping 平台整合多供应商资源,实现两款旗舰模型免费开放与统一调度,通过标准化测试、可视化看板与智能路由,为用户搭建从选型到落地的便捷桥梁。 呼朋唤友薅羊毛,Token白给不限量! 🎁AI Ping(aiping.cn)邀友福利来袭!邀请好友完成注册,双方各得 20 元平台算力点,所有模型及供应商全场通用,邀友无上限、福利赚不停,赶紧分享解锁双重福利~https://aiping.cn/#?channel_partner_

AI 编程助手价格与体验对比:Claude Code vs 国产替代(通义灵码 / 文心快码 / MarsCode / 腾讯系)

目录 * 1. 为什么要做这篇对比:开发效率正在被“定价”重塑 * 2. Claude Code 要不要付费?费用结构如何理解 * 3. 国产替代有哪些:定位差异与适用人群 * 4. 对比表格:价格、能力、生态、适配场景一张看懂 * 5. 实战:同一组任务对比补全 / 重构 / 测试 / 审查 * 6. 选型建议:按场景快速决策 * 7. 总结:把“工作流收益”放进预算里 1. 为什么要做这篇对比:开发效率正在被“定价”重塑 AI 编程助手已经从“写几行代码的尝鲜工具”,变成了能够影响交付节奏、代码质量与团队协作方式的生产力组件。Claude Code 代表了国际一线模型能力与工程体验;国产阵营(通义灵码、文心快码、

在Edge上使用Google ai studio,Chatgpt等网页版卡顿解决方案

在Edge上使用Google ai studio,Chatgpt等网页版卡顿解决方案

这是典型的浏览器资源调度策略(Resource Scheduling Policy)与重型单页应用(SPA, Single Page Application)发生冲突的表现。 Google AI Studio 和 ChatGPT 这类 Web 应用,底层大量依赖 WebSocket 进行流式传输,并在前端利用 WASM (WebAssembly) 或繁重的 JavaScript 进行 Markdown 渲染和代码高亮。你的 i5-11320H 虽然单核性能尚可,但作为 4核8线程的移动端 CPU,一旦被浏览器判定为“高能耗进程”并进行降频或挂起,就会出现明显的 Input Latency(输入延迟)和渲染卡顿。 针对 Edge 浏览器在 2024/2025 版本中的特性,以下是基于底层原理的解决方案,

AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI和LLM已经侵入目之所及的各个角落。本文汇总几款基于AI/LLM的小说创作工具。 AI-Writer BlinkDL开源(GitHub,3.6K Star,564 Fork)的AI写中文小说工具。使用基于RNN/语言模型(RWKV‑LM)的预训练模型,专注于生成中文网文(如玄幻、言情、网络小说)。 将“根据开头+设定→自动续写/生成后续内容”的流程自动化,能够快速生成连贯(或半连贯)的小说段落/章节。 实战 git clone https://github.com/BlinkDL/AI-Writer.git cd AI-Writer python run.py python server.py 流程: * 打开后,