1200PLC与爱普生机器人modbus_TCP通讯

1200PLC与爱普生机器人modbus_TCP通讯

1.前言

首先申明一下我的硬件信息

机器人:C4-A601S

控制器:RC700

PLC:西门子S7-1200(CPU:1217C/DC/DC/DC)

2.控制器IP地址查看及修改

在配置控制器相关信息时需要先用网线连接PC与机器人控制器连接,爱普生机器人出厂设定网址为192.168.0.1(我这里是之前修改过了)

若默认没有显示以太网连接,点击右侧的增加,选择“通过以太网连接到控制器”后点击确定

如果控制器网址被修改过了,不知道是多少,可以用一根PC线,一头接在控制器的“开发用PC连接专用USB端口”另一头接在电脑USB口

这时候再在通讯处选择USB连接就可以通上了

现在就可以在“系统配置”处看到控制器的IP地址以及相关信息了,如果有需要也可以直接在这修改IP地址。

3.机器人控制器配置

网线连接好后开始配置通讯相关信息

1.控制设备

控制设备修改为远程I/O

2.现场总线

现场总线类型修改为“Modbus TCP”

端口号记住PLC配置时要用到,也可以视情况进行修改

3.修改线圈地址

在远程控制➡输入/输出处,对应信号的线圈进行修改,修改为512~2559的任意一个值

修改信号线圈是因为爱普生机器人的MODBUS地址分布,保持性寄存器对应的线圈是从512开始的

如果还是使用原线圈,就无法通过Modbus通讯进行这些信号控制

不用全部信号都修改,根据实际情况修改即可,若是只需要机器人运行,停止(不需要暂停、继续、复位),那么就只需要修改Start、Stop的对应线圈即可。

4.控制器重启

参数都修改好后点击“应用”并关闭“设备控制器”,控制器会进行重启

重启好后再点开“设备控制器”看看参数是否都修改成功

4.PLC配置

1.MB_CLIENT

因为是由PLC作为主站,所以选用MB_CLIENT指令

2.TCON_IP_V4

建立一个TCON_IP_V4数据用于设置连接所需要的地址参数

3.读写数据

还需要新建word用于存储数据或是写入数据(指针指向的地址),根据实际情况增加或减少word个数

5.通讯测试

PLC与机器人都配置好后就可以进行通讯测试了

随便写一个程序写入,方便观察机器人运行状态

打开爱普生的“I/O监视器”,将监视的信号类型修改为现场总线从站输入/输出,方便实时观察信号线圈的通断情况

打开“运行控制台”并激活远程I/O

修改word值后写入,由于之前将start的线圈修改为512,stop线圈修改为513

所以写入1时,机器人512线圈得电,机器人启动

写入2时,机器人513线圈得电,机器人停止

能在I/O监视器看到写入的信号状态,就通讯成功了

6.注意事项

不要用错通讯指令了,爱普生默认不支持作为 Modbus TCP 主站,仅支持作为Modbus TCP 从站(Server)与外部设备(如 PLC、上位机)通讯。

若业务需要机器人主动读取外部设备数据(主站功能),可通过以下方式实现:

  • 方案 1:使用 TCP Socket 编程:通过 RC + 的SetNet/OpenNet/Input/Print等指令,自定义 TCP 通讯逻辑,让机器人主动建立连接并读取外部设备数据(需外部设备支持 TCP Server 模式);
  • 方案 2:借助中间设备:通过 PLC 作为中转(PLC 同时作为 Modbus TCP 主站 + TCP Client),机器人与 PLC 通过 TCP 通讯获取数据。

Read more

llama.cpp Vulkan后端在AMD显卡上的完整部署指南:从问题诊断到性能优化

llama.cpp Vulkan后端在AMD显卡上的完整部署指南:从问题诊断到性能优化 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 想要在AMD显卡上流畅运行llama.cpp却频频遭遇Vulkan初始化失败?本指南将带你系统解决兼容性问题,实现高效的大语言模型本地化部署。llama.cpp作为C/C++实现的高性能大语言模型推理框架,通过Vulkan后端可以显著提升GPU加速效果,但在AMD平台上的特殊配置需求往往让新手望而却步。 问题快速诊断方法 常见故障症状识别 当你遇到以下任一情况时,很可能遇到了AMD显卡与Vulkan后端的兼容性问题: * 启动崩溃:程序启动时立即崩溃,日志显示"vkCreateInstance failed" * 加载卡顿:模型加载进度卡在"Initializing

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu

AI绘画模型格式转换完全指南:从问题诊断到场景化解决方案

AI绘画模型格式转换完全指南:从问题诊断到场景化解决方案 【免费下载链接】awesome-ai-paintingAI绘画资料合集(包含国内外可使用平台、使用教程、参数教程、部署教程、业界新闻等等) stable diffusion tutorial、disco diffusion tutorial、 AI Platform 项目地址: https://gitcode.com/GitHub_Trending/aw/awesome-ai-painting 在AI绘画工作流中,模型格式转换是连接不同工具链的关键环节。当你遇到"无法加载模型文件"的错误提示,或是发现存储空间被低效格式占用时,掌握模型格式转换技术就成为解决问题的核心能力。本文将通过诊断指南的形式,帮助你系统理解模型格式的选择策略、实施转换流程、验证转换效果,并探索在不同场景下的应用方案,让你的AI绘画工作流更加高效与稳定。 问题诊断:你的模型格式是否需要优化? 格式兼容性故障排查 当你的AI绘画工具弹出"无法加载CKPT文件"的错误时,首先需要判断这是否是格式兼容性问题。常见的症状包括: