解决 Claude Code VS Code 扩展在 Windows 上无法检测 Git Bash 的问题

解决 Claude Code VS Code 扩展在 Windows 上无法检测 Git Bash 的问题

问题描述

Claude Code VS Code 扩展在 Windows 上报错:

Error: Claude Code on Windows requires git-bash (https://git-scm.com/downloads/win). If installed but not in PATH, set environment variable pointing to your bash.exe, similar to: CLAUDE_CODE_GIT_BASH_PATH=C:\Program Files\Git\bin\bash.exe 

即使 Git Bash 已正确安装,扩展仍然无法检测到。

相关 Issue: GitHub #8674

尝试过但无效的方法

  1. 添加 C:\Windows\System32\ 到系统 PATH
  2. 降级扩展版本到 v2.0.0
  3. 设置 CLAUDE_CODE_GIT_BASH_PATH 环境变量(无论路径是否包含空格)

最终解决方案

核心思路:不手动指定 bash.exe 路径,而是让系统通过 PATH 自动发现。

操作步骤

  1. 删除环境变量CLAUDE_CODE_GIT_BASH_PATH(如果存在)
  2. 将 Git CMD 目录添加到 PATH
    • 用户安装:%USERPROFILE%\AppData\Local\Programs\Git\cmd
    • 全局安装:C:\Program Files\Git\cmd
  3. 完全重启 VS Code
  4. 启动 Claude Code 扩展 — 问题解决

原因分析

初步猜测是 Program Files 路径中的空格导致解析错误,但经测试,即使使用不含空格的路径(如用户安装目录)设置 CLAUDE_CODE_GIT_BASH_PATH,问题依然存在。

因此,真正的原因可能是扩展在处理 CLAUDE_CODE_GIT_BASH_PATH 环境变量时存在 bug。通过 PATH 自动发现机制而非手动指定路径,可以绕过这个问题。

Read more

从零到一:本地项目上传Gitee完整指南(新手避坑版)

从零到一:本地项目上传Gitee完整指南(新手避坑版)

从零到一:本地项目上传Gitee完整指南(新手避坑版) 在日常开发或毕业设计中,将本地项目上传到代码托管平台是必备技能。Gitee(码云)作为国内优质的Git托管服务,不仅访问速度快,还支持私有仓库、协作者管理等实用功能,特别适合国内开发者和学生使用。本文将以「ESP32车载声浪模拟控制系统」毕设项目为例,从环境准备到代码推送,一步步教你完成本地项目上传,同时揭秘新手常踩的坑及解决方案。 一、前置知识:核心概念快速理解 在开始操作前,先搞懂3个关键概念,避免后续 confusion: * Git:本地代码版本控制工具,负责跟踪文件修改、管理提交记录,是连接本地项目和Gitee的桥梁; * Gitee:远程代码托管平台,相当于“云端代码仓库”,用于存储、共享你的项目; * 分支(Branch):项目的“并行开发线”,默认主分支为main(新版Git)或master(旧版Git),推送时需保证本地分支与远程分支名称一致。 二、准备工作(3步必做) 2.1

By Ne0inhk

读李宁老师的《AIGC 自动化编程 -- 基于 ChatGPT和 GitHub Copilot》

对“李宁”这个名字,最有印象的,除了体操王子,就是一位计算机图书领域的作者了。前几年就买过一本他写的 python(《Python从菜鸟到高手》)的书,感觉深入浅出,理解深刻,行文易懂。所以对作者怀有敬意和好感。 这几天翻阅他的这本 2023/10月出版的《AIGC 自动化编程 -- 基于 ChatGPT和 GitHub Copilot》这本书,虽然时光荏苒,技术进步飞速,书中有些内容已经过时,但是看到其中核心思想 -- 解决复杂问题,通用的做法就是先分解后合并,还是颇有裨益,于我心戚戚耶。遗憾没有早几年接触到这本书。 从2024 年初的 ChatGPT 大火,然后 2025年初DeepSeek 的横空出世(对普罗大众而言),到 2025 年底,Google Genimi 3的发布,LLM

By Ne0inhk

Qwen3-8B vs 其他8B模型:开源大模型性能对比实测

Qwen3-8B vs 其他8B模型:开源大模型性能对比实测 在当前大语言模型“军备竞赛”愈演愈烈的背景下,千亿参数模型固然引人注目,但真正决定AI技术能否落地千行百业的,往往是那些能在普通硬件上跑得动、用得起、管得住的轻量级选手。当A100集群不再是入场券,8B级别的模型正悄然成为开发者手中的“主力战力”。 这其中,阿里通义千问最新发布的 Qwen3-8B 引起了不小关注——它不仅宣称在多项基准测试中超越同级对手,更以对中文场景的深度优化和长达32K的上下文支持,试图在Llama3-8B、Gemma-7B、Mistral-7B等国际主流模型中杀出一条差异化路径。 那么,这款被寄予厚望的国产8B模型,到底强在哪里?我们不妨抛开宣传口径,从技术细节到实际部署,做一次穿透式的分析。 为什么是8B?一个被低估的“黄金平衡点” 很多人认为,大模型越大越好。但现实很骨感:70B模型即使用量化技术,在消费级显卡上也步履维艰;而小至1B~3B的模型又难以胜任复杂推理任务。8B参数规模恰好落在一个微妙的“甜区”—— * 它有足够的容量学习复杂的语言模式和常识知识; * FP16精度下

By Ne0inhk