Copilot使用体验

本篇是去年使用Copilot的记录,不代表目前水平,仅做个人记录同步,谨慎参考。

GitHub Copilot的订阅计划

https://docs.github.com/en/copilot/about-github-copilot/subscription-plans-for-github-copilot
个人版提供30天的免费试用。个人版每月10 美元或每年 100 美元。

Copilot操作文档

https://docs.github.com/en/copilot/quickstart
目前支持JetBrains IDEs,Vim/Neovim,Visual Studio,Visual Studio Code,Xcode。安装插件,登录Github账号就可以使用了,需要开代理。

基本操作

  • 获取代码建议,输入代码时会自动触发,使用“Tab”键采纳。
  • 切换建议,macOS使用“Option+]”或“Option+[”,windows使用“Alt+]” 或 “Alt+[”切换下一条,上一条。
  • 聊天模式,可以引用文件,生成测试代码,解释代码,修复问题。

基本操作,支持功能和同类型工具都大差不差,主要关注实际提示代码质量。

其他设置

  • 启用或禁用公共代码匹配的建议,如果选择允许匹配公共代码的建议,当Copilot建议匹配代码时,可以显示匹配的详细信息,并点击到GitHub上的相关存储库。
  • 访问Bing,Copilot将使用Bing在互联网上搜索与问题相关的信息。在讨论新技术或特定的主题时,Bing搜索尤其有用。

Copilot优缺点

优点

  • 提示速度快,支持语言丰富。
  • 偏向提示多行代码块,方便快捷。
  • 相对其他同类型工具提示更精准。
  • 会根据项目代码不断优化提示,做到更贴近所想。

缺点

  • 需要使用代理,没有国内的工具访问方便。
  • Copilot 是使用大量代码训练的,但它的范围仍然有限。 它可能无法处理一些复杂的代码结构或模糊的编程语言。
  • Copilot 并不是没有错误的。可能会生成看起来有效但实际无效的代码。 为了降低代码不准确的风险,需要仔细查看和测试生成的代码。
  • 由于上下文的限制,copilot不能全局考虑问题,更多的是解决局部的问题。会存在方法未复用的情况。

辅助编程相关场景举例说明

一般有三大类:

  • 代码-代码:包含代码补全、代码修复
  • 代码-文本:代码解释、代码优化、代码异常排查
  • 文本-代码:通过提示词 Prompt 做代码生成 (单元测试等)

支持语言

常用语言都支持(Java,python,JavaScript,Go,C, Kotlin等),亲测Flutter的Dart语言也可以很好的支持。

代码补全

场景:数据上报点击删除按钮时,pageinfo传入课程id(多个课程id用逗号分隔)
操作:当我输入到map方法做转换时,Copilot猜到我的意图,给出了下面的提示。

在这里插入图片描述


提示和预期完全一致,比较惊喜的地方在于,下载对象中属性字段很多,并且有“id”这个字段作为相似项干扰。
在我没有告知Copilot我的需求情况下,最终可以准确提示,还是很智能的。

代码修复

下面这段代码在实际运行中会报错崩溃,我们根据报错行数找到这段问题代码:

val goal ="${list[0].option.filter{ it.selected }[0]?.id ?: 1}"// java.lang.IndexOutOfBoundsException: Index 0 out of bounds for length 0

选中这行问题代码,输入“/fix”修复这个问题。

在这里插入图片描述


可以看到copilot解释了问题的原因,并给出了解决方案。

代码生成

可以通过写注释的方式,让Copilot帮我们生成相关代码。Copilot会根据上下文,给到合理的代码。

在这里插入图片描述

Read more

【每天一个知识点】Midjourney

【每天一个知识点】Midjourney

🧠 一、Midjourney 的工作方式(原理机制) Midjourney 是基于 扩散模型(Diffusion Model) 与 大规模视觉语言模型(CLIP) 的 AI 图像生成系统。 它的核心原理可以概括为三个阶段: 1️⃣ 文本理解阶段(Prompt Encoding) * 用户输入提示词(Prompt),例如: “A futuristic cityscape at sunset, ultra realistic, cinematic lighting, 8K” * Midjourney 使用一个经过大规模训练的 文本–图像对齐模型(类似 OpenAI 的 CLIP) 来理解提示词的语义。 * 模型将文字转化为一组高维语义向量(text embedding)。 2️⃣ 扩散生成阶段(Diffusion Process) * 系统从一张“

AIGC产品经理面试题汇总|从 0 到 1 做 AIGC 产品,核心能力与面试考点全拆解

2026年,生成式AI已经彻底走完了从技术爆发到产业落地的关键周期。当通用大模型的格局逐步固化,垂直行业的AIGC应用遍地开花,AI产品经理早已从互联网行业的“加分岗”,变成了科技企业、传统产业数字化转型的核心刚需岗。 但市场始终存在严重的人才供需错配:传统产品经理懂用户、懂流程,却摸不透AIGC的技术边界与产品逻辑;技术背景的从业者懂模型、懂算法,却无法把技术能力转化为可落地的用户价值与商业闭环。这也导致了AIGC产品岗的面试呈现出极强的两极分化——背概念的候选人一抓一大把,能真正讲清“从0到1做一款AIGC产品”的人寥寥无几。 这篇文章,我们不止于罗列面试题,更要拆解AIGC产品经理的核心能力模型,还原从0到1操盘AIGC产品的全链路流程,深挖大厂高频面试题背后的考察逻辑,同时结合产业趋势给出前瞻性判断。无论是想入行AIGC领域的产品新人,还是想突破职业瓶颈的资深产品人,都能从中找到可复用的方法论与可落地的行动指南。 第一章 认知破界:AIGC产品经理的核心定位与底层认知 这是所有面试的开篇考点,也是做AIGC产品的底层逻辑。面试官问基础认知题,从来不是想听你背大模型的定

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

开源ASR新选择:Fun-ASR与Whisper对比评测

开源ASR新选择:Fun-ASR与Whisper对比评测 在语音技术日益渗透日常生活的今天,自动语音识别(ASR)早已不再是实验室里的高冷概念。从会议纪要自动生成到客服录音智能质检,再到教育领域的课堂内容归档,语音转文字能力正成为众多产品的“标配”。然而,当开发者真正着手落地时,往往面临一个现实困境:用闭源服务担心数据外泄,自己训练模型又成本高昂、门槛不低。 OpenAI的Whisper无疑是当前最知名的通用语音识别方案之一。它开源了模型权重,支持多语言识别,在英文场景下表现优异,也因此被广泛集成进各类工具链中。但当我们把视角拉回中文环境——尤其是面对带口音的普通话、行业术语密集或需要私有化部署的业务场景时,Whisper的表现就开始显得有些“水土不服”。 正是在这种背景下,由钉钉联合通义实验室推出的 Fun-ASR 显得尤为亮眼。它不仅完全开源、可本地部署,还在中文识别精度和系统实用性上做了大量针对性优化。更关键的是,它配套提供了一个开箱即用的WebUI界面,让非专业用户也能轻松完成批量转写任务。 这不仅仅是一次简单的“国产替代”,而是一种面向实际应用需求重构ASR使用体验的