Neo4j-Desktop2.0安装教程(更改安装路径)

Neo4j-Desktop2.0安装教程(更改安装路径)

引言

       由于neo4j-desktop2.0版本是不提供安装页面(默认安装在C盘),从而让你选择安装路径的,这对于C盘内存来说是灾难性的。因此,需要手动设置安装路径。

参考文献:

  1. https://zhuanlan.zhihu.com/p/1935104156433121644https://zhuanlan.zhihu.com/p/1935104156433121644
  2. https://blog.ZEEKLOG.net/WMXJY/article/details/150649084

安装包下载:https://neo4j.com/deployment-center/?desktop-gdbhttps://neo4j.com/deployment-center/?desktop-gdb

1文件夹创建及环境变量设置

    首先需要在C盘以外的位置先创建一个Neo4j2文件夹,再在下面创建两个文件夹:App,PROData来存放软件本体和相关数据

然后打开“高级系统设置”——“环境变量”——系统变量下方的“新建”

然后添加如下内容:

变量名:NEO4J_DESKTOP_DATA_PATH

变量值:想要移动的位置

(例如我的是:D:\Neo4J2\PROData)

然后一路点击确定,最后重启电脑,确保设置生效。

2安装

把安装包复制到刚刚创建的Neo4j2文件夹——右键单机——选择“在终端中打开”

然后执行以下命令:(此处应注意运行的安装包的版本,我的是2.0.5)

然后执行以下命令:(此处应注意运行的安装包的版本,我的是2.0.5) .\neo4j-desktop-2.0.5-x64.exe /S /D=D:\Neo4J2\App /S表示静默安装(无界面)。 /D=后面是你想安装到的路径,必须是绝对路径,且不含空格或引号。 /D=参数必须放在命令最后,否则无效。 

注意:安装后,C盘中可能仍会存在   .Neo4j2   的文件夹空壳,可以保留也可以删去。

这里是傻瓜式安装不需要进行什么点击,它会在后台自动安装

3测试是否安装及修改成功

如果桌面出现neo4j2.0的快捷方式,并且App文件夹里存放了安装好的文件就证明安装成功了。

Read more

如何在VS Code中安装GitHub Copilot进行AI编程

如何在VS Code中安装GitHub Copilot进行AI编程

本文教您轻松在VS Code中玩转GitHub Copilot:从安装认证到实战网页开发,5分钟解锁AI编程神器,还能自由切换模型、实时调试代码! 在Visual Studio Code中搭建GitHub Copilot编程环境需要经过几个关键步骤,以下是详细指南: 环境准备阶段 1. 安装最新版VS Code(当前版本≥1.85)官网下载地址:https://code.visualstudio.com/ 2. 拥有有效的GitHub账户(建议启用双重验证) 注册地址:https://github.com/ 3. 稳定的网络连接(Copilot需实时云端交互) 安装流程 1、安装VS Code后,选择”Use All features with Copilot for free”。如果已经安装VS Code,可以打开VS Code扩展市场(

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

1. 背景说明:Agent Mode 与 MCP 的意义 Agent Mode 是 GitHub Copilot 的新形态,它能理解自然语言指令,自动拆分任务,遍历项目文件,执行命令并修改代码,像一个“自主项目助手”一样工作。 Model Context Protocol (MCP) 是一套用于 Copilot 调用外部工具的协议标准,让 Agent Mode 能访问终端、读写文件、检查代码等能力。 JetBrains 自 2025 年 5 月起已提供 Agent Mode + MCP 公测支持。最新版的插件已经是正式的非Preview版本。 2. JetBrains 中如何启用 Agent Mode (1)

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享 你有没有试过和一个模型聊着聊着,它突然忘了前面说了什么?或者刚聊到关键处,它就卡在“上一句我提到了什么”上?这次我用一张RTX 3060显卡,完整跑通了Meta-Llama-3-8B-Instruct——不是跑个demo,是真正在open-webui里连续对话40轮、处理2700+ token的长文档摘要、边写Python边解释逻辑、还顺手把一段中文技术文档翻译成地道英文。它没断片,没乱序,也没把“用户说的第三点”记成“第二点”。 这不是参数堆出来的幻觉,而是80亿参数在vLLM加速下给出的稳定输出。更关键的是:它真的能在单卡消费级显卡上跑起来,不靠云服务,不靠API调用,所有推理都在本地完成。 下面这篇分享,没有PPT式的技术罗列,只有我真实用下来的观察、踩过的坑、验证过的边界,以及那些“原来还能这样用”的小发现。 1. 为什么选它?一张3060就能跑的“轻量全能选手” 很多人看到“Llama 3”第一反应是:又一个大模型?但Llama-3-8B-Instruct的定位很特别——它不是冲着GPT

office里面你所在的区域不支持Copilot的解决方法

最近了一年office 365羊毛,想试用copilot的时候遇到这个问题: 梯子开了美国全局tun也没用,之后怀疑是缓存问题,因为一开始没开梯子导致加载了中国区的js文件,所以没法用 用微软官方网站上的方法试了下清缓存: 删除以下文件夹的内容 %LOCALAPPDATA%\Microsoft\Office\16.0\Wef\ 之后保持美国全局tun重启word即可: 如果还是不行,可以尝试office 365的网页版,也能用Copilot 参考:https://ZEEKLOG.fjh1997.top/posts/40329.html