一篇了解Copilot pro使用的笔记

一篇了解Copilot pro使用的笔记

当前AI 程序员已经默许了,除了使用国内外的那些头部Chat。Agent 模态已经肆意发展,因为随着AI的加成,大家都越来越主动或被动“效率起飞”。下面聊一下Copilot Pro的使用吧。
使用这个也就几个月吧,不谈购买心酸史,已经直接官网10刀了。这次也算开始心疼了,先研究一下这到底怎么用才不暴殄天物也不小才大用吧。哈哈,为了那该死的性价比~
1.关于copilot pro(个人账号)可供使用的头端模型界面
(手机没拍好)

在这里插入图片描述

看起来可用的后端模型挺多的,各家各路,选啥自己整。但却不是按照时间来计算,明显的“流量”限制,就是官网说的访问配额。
x = 相对消耗倍率(Cost / Compute Weight Multiplier),它不是速度,也不是性能评分,而是:
“使用该模型一次,相当于基础模型消耗的多少倍额度”。

还有:

在这里插入图片描述

(1)先说每个模型后面的那个数字0X

在这里插入图片描述


0x 不是 免费无限用
而是 不单独计入 Copilot Agent 配额权重,通常表示:这些模型:用于 基础补全或被 GitHub 平台级吸收成本,不会明显影响你 Copilot Agent 的高级调用额度
一开始安装copilot,没开copilot pro就只显示这些,但是当你免费用一段时间(其实是达到了访问次数)这边就不给免费chat输入了,会一直提醒你升到pro 模式。总是那是试用钩子,只能最基础任务,看起来傻傻的

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

(2)接着模型后面的那个数字不是0X

在这里插入图片描述


这个页面是pro 才能显示得到,而且据说不同的国家和地区显示的还不太一样。这个就是灵活度比较高了,我也不知道我这页面全了没有。
高级总额度有限啊,这可以理解成使用不同的模型耗额度的速度。每个模型都拿着一把到去砍额度,大刀一次砍的多,小刀一次砍的少,数字越大就是更专业的大刀,但是这些数字大的也是有其更加专业的强项适配的,需要高的干活还得高。付费不就是享受专业提高效率嘛。但是如果把专业的大刀用到补全这类基础中,那不是暴殄天物嘛,太不具有性价比了。下面这个表就说X 前面的数字越大那就是大大刀了。

在这里插入图片描述


每天用copilot agent 交流就是需要先选一把刀,然后交流分配任务,模型帮我们做任务的同时,也在砍可以交互的额度。最后高级配额耗完了就只有0X的那些模型可以用了。可见要合理搭配,这样才具有性价比。
1)claude 系列
强语言能力,强推理

在这里插入图片描述


2)Gemini 系列
结构化、工程说明型。

在这里插入图片描述


3)GPT5-通用系
强通用推理

在这里插入图片描述


4)GPT5 code 系
这名字就知道了,为code 而生啊。

在这里插入图片描述


2 AI给使用者的建议
先过自己的脑子,充分理解分析后评估和分解。然后再Agent.

在这里插入图片描述


具体来说使用步骤就是:

3.AI 给我这类研发开发者的直接建议

在这里插入图片描述

好了先这样吧,如果你也有好用的工具请推荐给我哈~

Read more

IDEA 插件 Trae AI 全攻略

IDEA 插件 Trae AI 全攻略

在 Java 开发的日常中,你是否经常遇到这些场景: * 面对重复的 CRUD 代码,机械敲击键盘却内心抗拒? * 接手 legacy 系统,看着几百行的复杂逻辑无从下手? * 调试时卡在某个异常,翻遍文档和 Stack Overflow 却找不到答案? * 写单元测试时,明明功能简单却要耗费大量时间设计测试用例? 这些问题的核心,在于重复性工作占用了太多创造性时间。而随着 AI 技术的发展,AI 辅助开发工具已成为突破效率瓶颈的关键。在众多工具中,Trae AI作为 IDEA 的一款插件,凭借对 Java 生态的深度适配、与 IDE 的无缝集成以及强大的代码理解能力,逐渐成为开发者的 “编码搭子”。 本文将从基础到进阶,全面讲解 Trae AI 的功能、用法、实战技巧和最佳实践,帮你彻底释放 AI 辅助开发的潜力,让编码效率提升

保姆级教程:Windows本地部署Ollama+OpenClaw,打造你的AI赚钱系统(APP开发/量化/小说/剪辑)

摘要:想用AI搞钱但卡在技术门槛?本文手把手教你用一台Windows电脑,零成本本地部署Ollama大模型+OpenClaw智能中枢,赋予AI开发APP、量化分析、编写小说、剪辑辅助等“赚钱技能”。全程无需编程基础,跟着鼠标点、照着命令敲,即可拥有24小时待命的AI员工。 一、写在前面 很多朋友对AI变现跃跃欲试,却常被这些问题劝退: * 云端部署太贵,API调用怕浪费钱 * 技术文档看不懂,不知道从哪下手 * 数据隐私担忧,不敢把敏感资料上传 其实,你手头那台Windows电脑完全能胜任!本文将带你搭建一套完全本地化、免费、可扩展的AI生产力系统,让AI帮你写代码、分析表格、生成文案、处理视频,真正把AI变成你的“赚钱工具”。 系统架构: * 本地大脑:Ollama + DeepSeek模型,负责理解任务、生成内容 * 智能中枢:OpenClaw(原名OpenClaude),负责调用各类工具(Skill) * 赚钱技能:通过安装Skill包,让AI具备特定领域的实操能力 适用人群:

大模型Token入门详解:概念、原理、换算与核心作用【AI基础】

用通俗直白的语言拆解Token相关知识点,全程无晦涩术语,适合AI初学者、大模型入门人群快速掌握核心逻辑,干货好懂易记。 一、Token核心定义:大模型的语言基础单元 我们常说的大语言模型上下文窗口,它的计量单位并不是日常的字数或者词语数,而是Token。大模型的本质是做数字矩阵运算,本身无法直接理解人类的自然语言,必须依靠Tokenizer(分词器)充当“翻译官”,完成文字与数字之间的双向转换,这也是大模型能够理解、生成文字的核心前提。 二、Tokenizer两大核心功能:编码与解码 分词器Tokenizer的工作流程主要分为两步,分工明确且逻辑连贯,支撑起语言与机器指令的转换闭环: * 编码(Encoding):将用户输入的文本内容,转换成模型能够识别的数字序列,包含两个关键步骤。第一步是切分,把完整的语句拆分成模型可处理的最小单元,也就是Token;第二步是映射,为每个Token分配专属的数字编号,即Token ID,让模型能够读取和处理。 * 解码(Decoding):把模型输出的Token ID,反向还原成人类可以正常读懂的自然文字,该过程不需要再次对文本进

探索高性能AI识别和边缘计算 | NVIDIA Jetson Orin Nano 8GB 开发套件的全面测评

探索高性能AI识别和边缘计算 | NVIDIA Jetson Orin Nano 8GB 开发套件的全面测评

随着边缘计算和人工智能技术的迅速发展,性能强大的嵌入式AI开发板成为开发者和企业关注的焦点。NVIDIA近期推出的Jetson Orin Nano 8GB开发套件,凭借其40 TOPS算力、高效的Ampere架构GPU以及出色的边缘AI能力,引起了广泛关注。本文将从配置性能、运行YOLOv5算法实测,以及与树莓派系列(Raspberry Pi 4B、Raspberry Pi 5)的横向对比三个维度,全面解析Jetson Orin Nano的实际表现,帮助开发者深入了解其在实时目标检测等AI任务中的优势和适用场景。 一、NVIDIA Jetson Orin Nano 介绍 NVIDIA Jetson Orin™ Nano 开发者套件 是一款尺寸小巧且性能强大的超级计算机,重新定义了小型边缘设备上的生成式 AI。它采用了性能强大的Orin架构模块,在体积小巧的同时提供高达40 TOPS的AI算力,能够无缝运行各种生成式 AI 模型,包括视觉变换器、大语言模型、视觉语言模型等,为开发者、学生和创客提供了一个高性价比且易于访问的平台。 图注: