[科研实践] VS Code (Copilot) + Overleaf (使用 Overleaf Workshop 插件)

[科研实践] VS Code (Copilot) + Overleaf (使用 Overleaf Workshop 插件)

科研圈写文档常用 Latex 环境,尤其是 Overleaf 它自带的 AI 润色工具 Writefull 太难用了。如果能用本地的 CoPilot / Cursor 结合 Overleaf,那肯定超高效!


于是我们找到了 VS Code 里的 Overleaf Workshop 插件。这里已经安装好了,没装过的同学可以直接点击 “安装”

安装后左边会出现 Overleaf Workshop 的图标:

点击右边的“+”:

Overleaf 官网需要登录,这里我们通过 cookie 调用已登录账号的 API:

回到主界面,右键点击 “检查”:


打开检查工具后,找到 “网络”(Network)窗口,搜索 “/project”

/project

如果首次加载没内容,刷新页面就能看到 project 条目了:


点击 project 条目,往下找到 “请求标头”,需要复制一段包含 cookie 的字符串(“神秘代码”)。这段代码全选后按 Ctrl+C 复制:

回到 VS Code,选择 “通过 cookie 登录”,粘贴(Ctrl+V)刚才的 cookie 字符串,回车确认:

这时会列出所有 Overleaf 项目。单击新窗口打开,打开后界面和 Overleaf 一致,左边是 LaTeX 代码,右边是 PDF 预览(“Ctrl+cmd+v” 预览快捷键)。现在试试本地 AI 功能:安装 VS Code 后,可连接 GitHub 或其他 AI 工具(如 CoPilot)

这相当于是用本地AI工具远程操作网页端的Overleaf

接下来就可以畅快写作啦~

快捷键:Ctrl + S 就能直接开始远程编译啦

参考视频:科研论文党王炸组合overleaf+Copilot_哔哩哔哩

Read more

ABB 机器人虚拟示教器基础操作教程

ABB 机器人虚拟示教器基础操作教程

一、基础操作界面与模式 1. 操作模式切换 * 手动模式:用于编程、调试和手动操作 自动模式:用于程序自动运行(需满足安全条件) 2. 动作模式选择(手动模式下) * 单轴模式:单独控制每个关节轴(1-6轴) * 优点:最直观,与坐标系无关 * 用途:调整机器人姿态,避免奇异点 * 线性模式:TCP沿直线运动 * 重定位模式:TCP位置不变,只改变工具姿态 点击示教器左上角 进入菜单栏 3. 坐标系选择(线性/重定位模式下) 四个可选坐标系: * 大地坐标系:机器人安装的基础坐标系 * 基座坐标系:机器人底座中心为原点(多数基本选择) * 工件坐标系:用户自定义的工作平面 * 工具坐标系:以工具末端为原点 二、三大核心数据设置 1. 工具数据(tooldata) 定义:描述工具(

论文笔记DiT:Scalable Diffusion Models with Transformers(含transformer的可扩展扩散模型 )

论文笔记DiT:Scalable Diffusion Models with Transformers(含transformer的可扩展扩散模型 )

Abstract:     论文的核心思想非常直接:用一个标准的 Transformer 架构替换掉扩散模型中常用的 U-Net 主干网络,并证明这种新架构(称为 DiT, Diffusion Transformer)具有出色的可扩展性(Scalability)。 Background & Motivation:     在论文发表前,Transformer 已经在自然语言处理(BERT, GPT)和计算机视觉(ViT)等领域取得了巨大成功,成为了一种“统一”的架构。然而,在图像生成领域,特别是扩散模型中,大家仍然普遍使用 U-Net。U-Net 因其多尺度特征融合和卷积的局部归纳偏置而被广泛采用。     在深度学习中,一个好的架构应该具备良好的“可扩展性”——即投入更多的计算资源(更大的模型、更多的数据),性能应该会持续稳定地提升。ViT 已经证明了 Transformer 在视觉识别任务上具有这种特性。作者们希望验证 DiT 是否也具备这种优良特性,为未来的生成模型发展指明一条清晰的路径。

MiniCPM-o-4.5-nvidia-FlagOS保姆级教程:Windows Subsystem for Linux部署全流程

MiniCPM-o-4.5-nvidia-FlagOS保姆级教程:Windows Subsystem for Linux部署全流程 想在自己的Windows电脑上体验最新的多模态大模型,但又不想折腾复杂的Linux双系统?今天,我就带你用最简单的方法,在Windows Subsystem for Linux(WSL)里,一步步部署MiniCPM-o-4.5-nvidia-FlagOS。这是一个能看懂图片、和你聊天的AI助手,而且部署过程比你想的要简单得多。 我最近刚在自己的游戏本(RTX 4070)上跑通了整个流程,从零开始到在浏览器里和AI对话,大概花了不到一小时。这篇文章就是我的完整操作记录,我会把每一步都拆解清楚,包括可能遇到的坑和解决办法。即使你之前没怎么接触过Linux命令行,跟着做也能搞定。 1. 准备工作:搞懂我们要做什么 在开始敲命令之前,我们先花两分钟了解一下这个项目到底是什么,以及为什么选择WSL来部署。 1.1 MiniCPM-o-4.5-nvidia-FlagOS是什么? 简单来说,这是一个打包好的“AI应用包”。它基于一个叫MiniCPM-o-4

Flowise低代码治理:工作流版本管理+灰度发布+回滚机制详解

Flowise低代码治理:工作流版本管理+灰度发布+回滚机制详解 1. Flowise不只是拖拽工具:为什么它值得被认真对待 很多人第一次听说Flowise,会下意识把它归类为“前端可视化玩具”——画布上拖几个节点、连几条线、点个保存,就能跑起来。确实,它足够轻量、足够友好,5分钟搭出RAG聊天机器人不是宣传话术,而是真实可复现的操作体验。但如果你只停留在“能用”的层面,就错过了Flowise在工程化落地中最关键的一层能力:面向生产环境的低代码治理能力。 这不是Flowise早期版本的附加功能,而是从v2.0开始系统性重构的核心模块。它不再满足于“让AI流程跑起来”,而是聚焦于“让AI流程稳得住、改得动、退得回”。尤其在企业级AI应用中,一个问答机器人背后可能关联着知识库更新、模型切换、Prompt迭代、向量库重载等多个变更点。当业务方说“把客服回答口径统一成新话术”,运维说“昨天上线的SQL Agent响应变慢了”,或者合规要求“立即停用某敏感字段的检索能力”——这些都不是重启服务能解决的问题。 Flowise给出的答案是:把工作流当作软件来管理。它引入了版本快照(Vers