一篇了解Copilot pro使用的笔记

一篇了解Copilot pro使用的笔记

当前AI 程序员已经默许了,除了使用国内外的那些头部Chat。Agent 模态已经肆意发展,因为随着AI的加成,大家都越来越主动或被动“效率起飞”。下面聊一下Copilot Pro的使用吧。
使用这个也就几个月吧,不谈购买心酸史,已经直接官网10刀了。这次也算开始心疼了,先研究一下这到底怎么用才不暴殄天物也不小才大用吧。哈哈,为了那该死的性价比~
1.关于copilot pro(个人账号)可供使用的头端模型界面
(手机没拍好)

在这里插入图片描述

看起来可用的后端模型挺多的,各家各路,选啥自己整。但却不是按照时间来计算,明显的“流量”限制,就是官网说的访问配额。
x = 相对消耗倍率(Cost / Compute Weight Multiplier),它不是速度,也不是性能评分,而是:
“使用该模型一次,相当于基础模型消耗的多少倍额度”。

还有:

在这里插入图片描述

(1)先说每个模型后面的那个数字0X

在这里插入图片描述


0x 不是 免费无限用
而是 不单独计入 Copilot Agent 配额权重,通常表示:这些模型:用于 基础补全或被 GitHub 平台级吸收成本,不会明显影响你 Copilot Agent 的高级调用额度
一开始安装copilot,没开copilot pro就只显示这些,但是当你免费用一段时间(其实是达到了访问次数)这边就不给免费chat输入了,会一直提醒你升到pro 模式。总是那是试用钩子,只能最基础任务,看起来傻傻的

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

(2)接着模型后面的那个数字不是0X

在这里插入图片描述


这个页面是pro 才能显示得到,而且据说不同的国家和地区显示的还不太一样。这个就是灵活度比较高了,我也不知道我这页面全了没有。
高级总额度有限啊,这可以理解成使用不同的模型耗额度的速度。每个模型都拿着一把到去砍额度,大刀一次砍的多,小刀一次砍的少,数字越大就是更专业的大刀,但是这些数字大的也是有其更加专业的强项适配的,需要高的干活还得高。付费不就是享受专业提高效率嘛。但是如果把专业的大刀用到补全这类基础中,那不是暴殄天物嘛,太不具有性价比了。下面这个表就说X 前面的数字越大那就是大大刀了。

在这里插入图片描述


每天用copilot agent 交流就是需要先选一把刀,然后交流分配任务,模型帮我们做任务的同时,也在砍可以交互的额度。最后高级配额耗完了就只有0X的那些模型可以用了。可见要合理搭配,这样才具有性价比。
1)claude 系列
强语言能力,强推理

在这里插入图片描述


2)Gemini 系列
结构化、工程说明型。

在这里插入图片描述


3)GPT5-通用系
强通用推理

在这里插入图片描述


4)GPT5 code 系
这名字就知道了,为code 而生啊。

在这里插入图片描述


2 AI给使用者的建议
先过自己的脑子,充分理解分析后评估和分解。然后再Agent.

在这里插入图片描述


具体来说使用步骤就是:

3.AI 给我这类研发开发者的直接建议

在这里插入图片描述

好了先这样吧,如果你也有好用的工具请推荐给我哈~

Read more

AI 编程工具选型:Copilot、Cursor、Codex 核心差异

AI 编程工具选型:Copilot、Cursor、Codex 核心差异

【如文章引起大家共鸣,请“点赞”以及“转发”,以支持继续创作,谢谢大家!】 朋友们大家好!今天咱们不聊那些虚头巴脑的,直接来点实在的——AI编程工具选型,Copilot、Cursor、Codex这仨到底咋选?别急,我这就用最接地气的方式,给你唠唠它们的“脾气秉性”,保证你听完就能上手挑! 先说Copilot,这哥们儿可是“代码补全界的扛把子”!它就像你身边的“代码小秘书”,你敲代码时,它就在旁边默默观察,你刚敲个“for”,它立马给你补上“(int i=0;i<n;i++)”,那叫一个快!而且,它还支持多IDE,VS Code、JetBrains啥的,都能无缝对接。不过呢,Copilot也有个“小毛病”,就是它更擅长“补全”,对于复杂的代码重构或者项目级理解,就有点力不从心了。

By Ne0inhk

Whisper-large-v3从零开始:非AI工程师也能30分钟搭好语音识别服务

Whisper-large-v3从零开始:非AI工程师也能30分钟搭好语音识别服务 作者:by113小贝 | 10年+AI工程实践经验 1. 开篇:为什么你需要这个语音识别服务 你是不是遇到过这些情况: * 会议录音需要整理成文字,手动打字要花好几个小时 * 外语视频想了解内容,但听不懂也找不到字幕 * 采访录音需要转录,外包服务又贵又慢 现在,你可以用OpenAI的Whisper Large v3模型,自己搭建一个专业的语音识别服务。这个模型支持99种语言,能自动检测语言类型,还能把外语翻译成中文。 最棒的是,即使你不是AI工程师,也能在30分钟内搞定。我会手把手带你完成整个部署过程,从环境准备到服务启动,每个步骤都有详细说明。 2. 准备工作:需要什么硬件和软件 在开始之前,我们先看看需要准备什么。别担心,要求并不高: 2.1 硬件要求 硬件组件推荐配置最低要求GPUNVIDIA RTX 4090 D (23GB显存)任何支持CUDA的NVIDIA显卡(8GB+显存)内存16GB或更多8GB存储空间10GB可用空间5GB可用空间系统Ubuntu 2

By Ne0inhk
详解如何复现LLaMA 4:从零开始利用Python构建

详解如何复现LLaMA 4:从零开始利用Python构建

🧠 向所有学习者致敬! “学习不是装满一桶水,而是点燃一把火。” —— 叶芝 我的博客主页:https://lizheng.blog.ZEEKLOG.net 🌐 欢迎点击加入AI人工智能社区! 🚀 让我们一起努力,共创AI未来! 🚀 LLaMA 4 发布以来已经面临了大量的批评,但LLaMA 4 是继 Mistral 之后的一个新进展,展示了基于 MoE(Mixture-of-Experts,混合专家)模型的优势。 在本博客中,我们从零开始构建 LLaMA 4 的 MoE 架构,以了解它是如何实际构建的。 更多LLM图解内容可以查看 详解如何复现DeepSeek R1:从零开始利用Python构建 详解如何从零用 Python复现类似 GPT-4o 的多模态模型 复现BPE 以下是我们在GPU 上训练的 220 万参数的 LLaMA MoE 在一个微小的英语数据集上训练

By Ne0inhk

在Windows11利用llama.cpp调用Qwen3.5量化模型测试

1.下载llama.cpp二进制文件 访问 https://github.com/ggml-org/llama.cpp/releases 或者 https://bgithub.xyz/ggml-org/llama.cpp/releases 选择适合自己平台的。我没有独立显卡,所以选择CPU版本 https://bgithub.xyz/ggml-org/llama.cpp/releases/download/b8192/llama-b8192-bin-win-cpu-x64.zip 解压到\d\llama8\目录。 2.下载量化模型 按照 章北海mlpy 公众号:Ai学习的老章~ID:mindszhang666 写的知乎文章Qwen3.5 0.8B/2B/

By Ne0inhk