[科研实践] VS Code (Copilot) + Overleaf (使用 Overleaf Workshop 插件)

[科研实践] VS Code (Copilot) + Overleaf (使用 Overleaf Workshop 插件)

科研圈写文档常用 Latex 环境,尤其是 Overleaf 它自带的 AI 润色工具 Writefull 太难用了。如果能用本地的 CoPilot / Cursor 结合 Overleaf,那肯定超高效!


于是我们找到了 VS Code 里的 Overleaf Workshop 插件。这里已经安装好了,没装过的同学可以直接点击 “安装”

安装后左边会出现 Overleaf Workshop 的图标:

点击右边的“+”:

Overleaf 官网需要登录,这里我们通过 cookie 调用已登录账号的 API:

回到主界面,右键点击 “检查”:


打开检查工具后,找到 “网络”(Network)窗口,搜索 “/project”

/project

如果首次加载没内容,刷新页面就能看到 project 条目了:


点击 project 条目,往下找到 “请求标头”,需要复制一段包含 cookie 的字符串(“神秘代码”)。这段代码全选后按 Ctrl+C 复制:

回到 VS Code,选择 “通过 cookie 登录”,粘贴(Ctrl+V)刚才的 cookie 字符串,回车确认:

这时会列出所有 Overleaf 项目。单击新窗口打开,打开后界面和 Overleaf 一致,左边是 LaTeX 代码,右边是 PDF 预览(“Ctrl+cmd+v” 预览快捷键)。现在试试本地 AI 功能:安装 VS Code 后,可连接 GitHub 或其他 AI 工具(如 CoPilot)

这相当于是用本地AI工具远程操作网页端的Overleaf

接下来就可以畅快写作啦~

快捷键:Ctrl + S 就能直接开始远程编译啦

参考视频:科研论文党王炸组合overleaf+Copilot_哔哩哔哩

Read more

HarukaBot完整部署指南:轻松搭建B站QQ推送机器人

HarukaBot完整部署指南:轻松搭建B站QQ推送机器人 【免费下载链接】HarukaBot将 B 站的动态和直播信息推送至 QQ,基于 NoneBot2 开发 项目地址: https://gitcode.com/gh_mirrors/ha/HarukaBot 想要在QQ群里第一时间获取B站UP主的直播开播提醒和最新动态吗?HarukaBot正是你需要的专属信息助手!这款基于NoneBot2框架开发的QQ机器人,专门为B站粉丝设计,让你不再错过任何精彩内容。 核心功能亮点解析 实时直播监控 HarukaBot能够实时监控B站UP主的直播状态,在10秒内捕捉到开播信号并立即推送到指定QQ群,确保群成员始终站在信息最前沿。 动态内容精准推送 当关注的UP主发布新作品或重要动态时,系统会自动抓取内容并生成高质量截图,完美复现B站网页端浏览体验,告别枯燥的纯文字信息。 智能权限管理 支持设置仅管理员可操作机器人,有效防止群内恶意刷屏和误操作,维护良好的群聊秩序。 实战部署全流程 环境准备与项目获取 确保你的服务器已安装Python 3.7及以上版本,这是运行H

无人机 5.8G 模拟图传电路设计方案及性能分析

一、什么是 5.8G 模拟图传? 简单说,5.8G 模拟图传就是无人机的 “千里眼”,能把天上拍的画面实时传到地面。你在遥控器上看到的无人机视角,全靠它来实现。 为啥是 5.8G?因为这个频段干扰少,就像高速路上车少,信号跑起来更顺畅。而且模拟信号传输快,延迟低,特别适合 FPV 竞速这种需要快速反应的场景 —— 总不能无人机都撞墙了,你才在屏幕上看到障碍物吧? 二、工作原理:信号的 “旅行记” 2.1 信号采集:无人机的 “眼睛” 无人机上的摄像头就像手机相机,能把看到的景象变成电信号。但这时候的信号很弱,还带着 “杂音”,就像说话含着口水,听不清。 这时候会经过两步处理: * 过滤杂音:用低通滤波器 “过滤” 掉高频噪音,就像用滤网把水里的沙子去掉。 * 信号放大:放大器把信号变强,

从0开始学AI绘画:Qwen-Image-2512-ComfyUI实战指南

从0开始学AI绘画:Qwen-Image-2512-ComfyUI实战指南 1. 为什么选Qwen-Image-2512+ComfyUI?新手也能稳稳出图 你是不是也经历过这些时刻: 下载了AI绘画工具,点开界面却不知道从哪下手; 复制了一堆网上搜来的提示词,生成的图不是手多一只,就是背景糊成一团; 想调个参数,发现全是英文缩写——CFG、steps、denoise……像在解密码。 Qwen-Image-2512-ComfyUI这个镜像,就是为解决这些问题而生的。它不是又一个需要你从零编译、配环境、下模型、改配置的“硬核项目”,而是一套开箱即用、所见即所得、连鼠标点几下就能出高清图的完整工作流。 它背后是阿里通义实验室最新开源的Qwen-Image-2512模型——不靠堆算力,而是实打实优化了纹理建模、光影推理和语义对齐能力。更重要的是,它被深度集成进ComfyUI这个可视化节点平台里。你不用写一行Python,也不用记任何命令,所有操作都在网页里拖拖拽拽完成。 最关键的一点:它对硬件很友好。官方说明写着“4090D单卡即可”,我们实测在一台搭载RTX 4090D(24G显

教你一步步在 服务器/本地(Linux/Windows) 部署鸣潮QQ机器人,并将其接入大语言模型,实现通过机器人进行库街区签到、练度查询、攻略查询等功能 (1)

准备工作 一台轻量级服务器/ 本地windows/linux能够在服务器/本地 科学上网 环境部署 笔者所演示的环境为阿里云服务器(2核CPU,2GIB内存,40GIB系统盘),操作系统为 Ubuntu 24.04. 确保已成功安装Python环境(版本须>3.8, 建议>=3.12,不建议>=3.13) 确保已成功安装git 如果你没有安装git且的系统是ubuntu,安装git只需要输入 如果系统为Windows,则自行前往 🔗官网 下载安装包安装即可 创建虚拟环境 从 Python 3.11 开始,Debian 和 Ubuntu 默认启用了 "Externally-Managed-Environment"(外部管理环境)保护机制,