飞牛NAS安装部署Gitea

一、安装

我的机器是飞牛的六盘位的固态nas,在正常配置好了环境之后,进入到wab界面,且登陆上自己的账号,我目前测试是支持内网,外网链接推送测试还有一点异常,应该是从飞牛的服务器中转的问题,在飞牛论坛也看到好多人在说这个问题,应该是共性问题,等待官方修复了再尝试外网访问把,目前内网满足使用需求。

依次打开,然后安装gitea

选择等待安装,然后选择安装位置,我这里只有一个盘所以就直接选择安装下一步了

勾选好之后,点击确定

这时候可以开始打开配置了

主要的有这三点需要修改一下第一个是数据库类型,这里选择最简单的(能连接网外了的话可以用mysql这类的大型数据库),然后是站点名称,ssh服务端口记得设置为1024以上的,因为1024以下是系统来配置

这里需要注意一下,如果不想要通知可以不设置邮箱发件人,但是需要注意设置管理员账户和密码,或者设置可以外部注册的也可以

弹出这个界面就是ok了

这个时候gitea应该是已经启动了,我们先检查一下是否启动和端口是否被监听,需要使用飞牛的终端,没有使用过的,需要在应用中心寻找。

# 检查Gitea是否在运行 ps aux | grep gitea | grep -v grep # 检查2022端口是否监听 sudo netstat -tlnp | grep :2022

一般这两个指令执行完之后gitea是有反应的,然后端口监听是没有的,

不过不要慌,这时候我们使用指令先停止掉gitea

sudo pkill -9 gitea

在停止掉之后,再次使用指令应该没有任何回应,这时候使用下面的指令打开配置

sudo nano /vol1/@appdata/Gitea/conf.ini

找到这个语句然后添加进去这个指令,我这里是添加好的,然后使用ctrl+x,再输入Y,再点击回车进行保存

START_SSH_SERVER = true

这时候我们再重启一下就可以了,使用指令是

# 切换到Gitea目录 cd /vol1/@appcenter/Gitea # 以gitea用户身份启动 sudo -u gitea ./bin/gitea web --config /vol1/@appdata/Gitea/conf.ini &

在配置好之后再次执行查询端口的指令,显示出和我的一样,那么就是可以了,然后我们来到windows端使用命令行输入指令,当这里是true即配置正确

//x代表自己的真实ip,飞牛的ip Test-NetConnection 192.168.1.x -Port 2022

二、配置

进行创建仓库

将这三个简单设置好之后,没有特别的设置就可以创建仓库了

然后需要添加密钥,不知道密钥的可以看我上一篇文章怎么获取密钥的,找到设置

然后点击ssh/gpg密钥,添加到自己的密钥

然后使用ssh的指令,复制下来配置到工程里面

三、测试

添加自己的ssh地址

没有任何报错就是正常了,这时候可以尝试发布一下,就可以了。有什么问题后续更新

Read more

01_Dify开源版使用源代码本地启动

01_Dify开源版使用源代码本地启动

一、前提条件 1.1 硬件要求 在安装 Dify 之前,请确保您的设备符合以下最低系统要求: * CPU >= 2 核 * RAM >= 4 GiB 1.2 安装Docker和Docker Compose 👉 Ubuntu 安装Docker和Docker Compose图文教程 👉 Windows下DockerDesktop安装配置图文教程,含软件安装包 1.3 安装 Git 👉 Windows下Git安装配置及常用操作图文教程,含软件安装包 二、克隆 Dify 仓库 2.1 添加 Dify 的远程仓库 git remote add dify https://gitee.com/dify_ai/

By Ne0inhk

Llama-3.2-3B效果实测:Ollama平台下10万字PDF文档摘要质量分析

Llama-3.2-3B效果实测:Ollama平台下10万字PDF文档摘要质量分析 1. 为什么选Llama-3.2-3B做长文档摘要? 你有没有遇到过这样的情况:手头有一份50页的技术白皮书、一份80页的行业研究报告,或者一份120页的产品需求文档,领导说“今天下班前给我一个三页以内的核心要点总结”?翻完目录就花了半小时,通读一遍至少两小时,最后写出来的摘要还被说“重点不突出”“逻辑不清晰”。 这次我决定用刚发布的Llama-3.2-3B模型,在Ollama平台上实测它处理真实长文档的能力。不是跑个标准数据集打个分就完事,而是直接拿一份真实的10.2万字PDF文档——某头部新能源车企发布的《2024智能驾驶技术白皮书》(含图表说明、参数表格、架构图文字描述),全程不切片、不预处理,只做最基础的文本提取,看它能不能真正帮人“读懂厚文档”。 选择Llama-3.2-3B不是跟风。它和上一代相比,指令微调更聚焦在“摘要”和“检索增强”这类任务上,官方明确提到对长上下文理解做了针对性优化。而Ollama平台的优势在于:零配置部署、本地运行不传数据、命令行+Web双模式,特别适合需要

By Ne0inhk
LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL 目录 LLaMA-Factory微调多模态大模型Qwen3-VL 1. 显卡驱动 2. 模型微调 3. 模型导出 4. 模型部署:vLLM服务 5. 测试效果 1. 显卡驱动 * 显卡型号:NVIDIA GeForce RTX 3090 24G * 显卡驱动:NVIDIA-SMI 535.171.04             * CUDA: 12.2 ,Driver Version: 535.171.04   微调Qwen3-VL-2B模型,至少需要12G显存 2. 模型微调 项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM

By Ne0inhk
2026 年 1 月 GitHub 十大热门项目排行榜

2026 年 1 月 GitHub 十大热门项目排行榜

欢迎来到 2026 年 1 月 GitHub 热门开源项目排行榜! 新年伊始,开源社区直接用行动告诉我们:AI 正在彻底落地到你的电脑、手机和日常工作流中。本月榜单呈现出非常清晰的三大主线:本地化与隐私成为绝对共识、Claude 生态工具链快速闭环、多模态能力与高效推理技术双双进入成熟期。 这十个项目几乎全部围绕「让 AI 更贴近用户、更可控、更高效」展开,从个人级本地助手到专业领域 Agent,从内容创作到基础设施优化,全链路覆盖。它们不再是概念验证,而是可以立刻装进工作流、立刻产生生产力的工具。 三大核心趋势一览: * 本地化与隐私优先全面爆发:OpenClaw、UI-TARS-desktop、web-check 等项目让AI 就在你设备上成为日常,数据绝不离本地 * Claude 生态工具链闭环加速:Skills、claude-plugins-official、Antigravity-Manager 共同构建了更强大、更易扩展的 Claude 使用体系 * 多模态 + 高效推理双轮驱动:

By Ne0inhk