2025最新版 Go语言&Goland 专业安装及配置(超详细)

2025最新版 Go语言&Goland 专业安装及配置(超详细)

目录

一、安装Go语言 (Golang)

1. 下载安装

  • 一直NEXT

Finish

在这里插入图片描述

修改安装路径

在这里插入图片描述

Golang官网下载(Windows版)

在这里插入图片描述

2. 配置环境变量

  • 计算机(右键)→属性→高级系统设置→(点击)环境变量

PATH:go的bin目录,通常安装golang后,系统会自动配置
检查一下

在这里插入图片描述

GOPATH:自定义一个工作区目录(存放代码、依赖库等)
新建一个系统变量

在这里插入图片描述


检查GOPATH用户变量(要与上面的系统变量一致)

在这里插入图片描述

GOROOT:Go的安装路径
新建一个系统变量

在这里插入图片描述

3. 安装验证

打开终端,运行:

go version # 显示版本号 
在这里插入图片描述
go env # 查看Go环境配置 
在这里插入图片描述

二、安装Goland IDE

1. 下载安装

不要勾选运行,直接点击完成

在这里插入图片描述

安装

在这里插入图片描述

勾选快捷方式

在这里插入图片描述

修改安装路径

在这里插入图片描述

GoLand官网下载

在这里插入图片描述

2. 首次配置

激活

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


2. 基本配置

Go Modules 设置:

在这里插入图片描述

顺便检查一下 GOPATH (在 Settings → Go → GOPATH 中检查)

在这里插入图片描述

打开Goland → File → Settings → Go → GOROOT,点击 +,选择Go的安装路径

在这里插入图片描述


在这里插入图片描述
  • GOPROXY:管理依赖的核心
  • GOSUMDB:用于验证下载的依赖包是否被篡改,确保安全性
GOPROXY=https://goproxy.cn,https://goproxy.io,direct;GOSUMDB=sum.golang.google.cn 
  • 验证:
go env GOPROXY go env GOSUMDB 
在这里插入图片描述

3.创建项目验证

重启后创建

在这里插入图片描述
  • 新建项目
    File → New → Project → 选择位置 → 设置包名 → 勾选Add sample code
在这里插入图片描述


可以看到已经有简单的代码在main.go中了

运行后可以在下方看到对应输出,成功

在这里插入图片描述

Read more

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu

By Ne0inhk

CloudFlare-ImgBed:免费开源图床终极指南

引言 在数字内容创作的时代,高效的文件托管工具已成为必备。无论是博主分享图片、开发者管理API文档,还是团队协作云盘,传统图床服务往往面临存储限额、隐私泄露或高成本问题。CloudFlare-ImgBed 作为一个开源解决方案,充分利用CloudFlare的全球CDN和免费R2存储,提供了低成本、高可靠性的文件托管平台。本文将围绕其实用性展开深度探讨,包括功能剖析、详细安装教程、实际使用案例,以及优化建议,帮助你快速上手并最大化价值。 免费下载:https://download.ZEEKLOG.net/download/qq_29655401/92144066 为什么选择CloudFlare-ImgBed?实用性深度剖析 CloudFlare-ImgBed 不是简单的文件上传器,它是一个全链路文件生命周期管理工具,专为图床(Image Bed)、文件存储(File Storage)和云驱动(Cloud Drive)设计。相比Sm.ms或Imgur等商业服务,它的核心优势在于零成本部署(借助CloudFlare Pages或Docker)和开源透明(GitHub仓库:

By Ne0inhk
Deer-flow:字节跳动开源的高性能轻量级 C++ 工作流引擎,正在重塑大厂级的并发艺术

Deer-flow:字节跳动开源的高性能轻量级 C++ 工作流引擎,正在重塑大厂级的并发艺术

Deer-flow:字节跳动开源的高性能轻量级 C++ 工作流引擎,正在重塑大厂级的"并发艺术" 当传统框架还在为复杂的线程同步和死锁头疼时,Deer-flow 已经在你毫秒级的请求链路上完成了数万次的高效调度:“这就是大厂级的性能,要感受一下吗?” 一、一场来自字节跳动核心业务的开源技术"地震" 2024年底,随着字节跳动将其内部打磨已久的 Deer-flow 正式推向 GitHub,全球 C++ 开发者圈子的平静被彻底打破。这不仅仅是一个新的库,它是字节跳动在处理抖音、今日头条等海量并发业务时,沉淀出的高性能逻辑编排方案。 这不是普通的开源组件,这是工业级的"并发利器": * 📈 字节跳动核心业务背书: 源自搜索、推荐等对延迟要求近乎苛刻的真实场景,它处理的并发量级是普通开源项目难以想象的。 * 🌟 极致的性能曲线: 相比于传统的 Task-based 框架,Deer-flow 以极低的调度开销,将硬件性能压榨到了极致。 * 💻 全球开发者的"真香"

By Ne0inhk
OpenAI 开源模型 gpt-oss 本地部署详细教程

OpenAI 开源模型 gpt-oss 本地部署详细教程

OpenAI 最近发布了其首个开源的开放权重模型gpt-oss,这在AI圈引起了巨大的轰动。对于广大开发者和AI爱好者来说,这意味着我们终于可以在自己的机器上,完全本地化地运行和探索这款强大的模型了。 本教程将一步一步指导你如何在Windows和Linux系统上,借助极其便捷的本地大模型运行框架Ollama,轻松部署和使用 gpt-oss 模型。 一、准备工作:系统配置与性能预期 在开始之前,了解运行环境非常重要。本次部署将在我的个人电脑上进行,下面是推荐配置: * CPU: 现代多核 CPU,如 Intel Core i7 或 AMD Ryzen 7 系列 * 内存 (RAM): 32 GB 或更多 * 显卡 (GPU): 强烈推荐 NVIDIA GeForce RTX 4090 (24 GB 显存)。这是确保大型模型流畅运行与高效微调的理想选择。 * 操作系统: Linux 或 Windows

By Ne0inhk