玩客云 边缘AI模型 本地搭建部署 llama.cpp qwen

玩客云 边缘AI模型 本地搭建部署 llama.cpp qwen

安装基础依赖

打开终端,输入:

# 更新系统 sudo apt update && sudo apt upgrade -y # 安装编译工具 sudo apt install git build-essential cmake python3 python3-pip -y 

安装系统包版本 numpy

sudo apt update sudo apt install python3-numpy -y 
这一步保证你可以编译 llama.cpp 和运行 Python 脚本。

 下载并编译 llama.cpp

install_llama.sh

#!/bin/bash set -e # 有错误直接退出,别默默翻车 REPO_URL="https://github.com/ggerganov/llama.cpp" DIR_NAME="llama.cpp" BUILD_DIR="build" echo "== llama.cpp 一键构建脚本 ==" # 1. 检查源码是否存在 if [ ! -d "$DIR_NAME" ]; then echo "[INFO] 未检测到 llama.cpp,开始下载..." export http_proxy=http://192.168.1.131:7897 export https_proxy=http://192.168.1.131:7897 git clone "$REPO_URL" echo "[OK] 下载完成" else echo "[OK] 已存在 llama.cpp,跳过下载" fi cd "$DIR_NAME" # 2. 检查 build 目录 if [ ! -d "$BUILD_DIR" ]; then echo "[INFO] 创建 build 目录" mkdir "$BUILD_DIR" else echo "[OK] build 目录已存在" fi cd "$BUILD_DIR" # 3. CMake + 编译 echo "[INFO] 开始 CMake 配置" cmake -DCMAKE_BUILD_TYPE=Release .. echo "[INFO] 开始编译(make -j1)" make -j1 echo "== llama.cpp 编译完成 ==" 

-j1 限制单线程,避免 OOM

编译完成后生成  可执行文件

测试:

 cd ~/llama.cpp/build/bin ./test-backend-ops 

Testing 1 devices

Backend 1/1: CPU
  Skipping CPU backend
1/1 backends passed
OK

设置 HTTP/HTTPS 代理(临时)网络不好时候

export http_proxy=http://192.168.1.131:7897 export https_proxy=http://192.168.1.131:7897
  • 编译后生成的 main 可执行文件,就是推理程序。
  • llama.cpp 支持 ARM CPU,所以 S805 可以直接跑。

下载模型 https://huggingface.co/search/full-text?q=TinyLLM+%2F+GGUF 搜索关键词  TinyLLM / GGUF

进入模型目录:

cd ~ mkdir models cd /root/models

然后用 wget 直接:

wget --no-check-certificate --secure-protocol=TLSv1_2 https://huggingface.co/Qwen/Qwen2.5-Coder-0.5B-Instruct-GGUF/resolve/main/qwen2.5-coder-0.5b-instruct-q5_0.gguf

或者电脑下载后 scp拷贝过去

 scp qwen2.5-coder-0.5b-instruct-q5_0.gguf [email protected]:/root/models

一键下载脚本 dl.sh

 #!/bin/bash # 使用方法: ./dl.sh <下载链接> [保存文件名] # 示例: # ./dl.sh https://huggingface.co/Qwen/Qwen2.5-Coder-0.5B-Instruct-GGUF/resolve/main/qwen2.5-coder-0.5b-instruct-q5_0.gguf # 设置代理 export http_proxy=http://192.168.1.131:7897 export https_proxy=http://192.168.1.131:7897 URL="$1" FILENAME="$2" if [ -z "$URL" ]; then echo "请提供下载链接" exit 1 fi # 如果没有指定文件名,自动从 URL 提取 if [ -z "$FILENAME" ]; then FILENAME=$(basename "$URL") fi echo "开始下载: $URL" echo "保存为: $FILENAME" wget --no-check-certificate --secure-protocol=TLSv1_2 -c "$URL" -O "$FILENAME" --tries=5 --timeout=30 if [ $? -eq 0 ]; then echo "下载完成: $FILENAME" else echo "下载失败,请检查网络或代理设置" fi 

运行

  • -m:模型文件路径
  • -p:输入提示(传感器数据或指令)
  • -n:生成 token 数量(这里 10 个就够)

root目录下

./llama.cpp/build/bin/llama-cli -m /root/models/qwen2.5-coder-0.5b-instruct-q5_0.gguf -p "hello" -n 500 

效果

一键启动脚本 start.sh

 #!/bin/bash MODEL_FILE=${1:-"qwen2.5-coder-0.5b-instruct-q5_0.gguf"} MODEL_PATH="$HOME/models/$MODEL_FILE" if [ ! -f "$MODEL_PATH" ]; then echo "错误:模型文件 $MODEL_PATH 不存在!" exit 1 fi CTX_SIZE=1024 N_PREDICT=512 TEMP=0.3 THREADS=4 echo "开始加载模型:$MODEL_FILE" echo "参数:上下文=$CTX_SIZE,生成token数=$N_PREDICT,温度=$TEMP,线程数=$THREADS" "$HOME/llama.cpp/build/bin/llama-cli" \ -m "$MODEL_PATH" \ -c $CTX_SIZE \ -n $N_PREDICT \ --temp $TEMP \ --threads $THREADS \ --color auto 

扩展

安装open webui

docker run -d \ --name open-webui \ -p 3000:8080 \ -e OPENAI_API_BASE_URL=http://192.168.1.191:8080/v1 \ -e OPENAI_API_KEY=sk-local \ --restart unless-stopped \ ghcr.io/open-webui/open-webui:main 

运行服务端模式

/root/llama.cpp/build/bin/llama-server \ -m /root/models/qwen2.5-coder-0.5b-instruct-q8_0.gguf \ -c 2048 \ --host 0.0.0.0 \ --port 8080 

测试服务端

curl http://127.0.0.1:8080/v1/models

响应:

{"models":[{"name":"qwen2.5-coder-0.5b-instruct-q8_0.gguf","model":"qwen2.5-coder-0.5b-instruct-q8_0.gguf","modified_at":"","size":"","digest":"","type":"model","description":"","tags":[""],"capabilities":["completion"],"parameters":"","details":{"parent_model":"","format":"gguf","family":"","families":[""],"parameter_size":"","quantization_level":""}}],"object":"list","data":[{"id":"qwen2.5-coder-0.5b-instruct-q8_0.gguf","object":"model","created":1769056357,"owned_by":"llamacpp","meta":{"vocab_type":2,"n_vocab":151936,"n_ctx_train":32768,"n_embd":896,"n_params":630167424,"size":669763072}}]}

API使用:chatbox里面导入 

http://192.168.1.191:8080/v1

Read more

知网vs维普AIGC检测对比:哪个更严?实测数据告诉你答案

知网vs维普AIGC检测对比:哪个更严?实测数据告诉你答案

知网vs维普AIGC检测对比:哪个更严?实测数据告诉你答案 TL;DR:同一篇论文,知网和维普的AIGC检测结果可能相差20%-46%。实测发现维普检测更严格,知网相对宽松。以学校指定平台为准是第一原则。不管用哪个平台检测,用嘎嘎降AI或比话降AI处理后都能达标。 为什么知网和维普检测结果差这么多? 最近群里有个同学发了张图,把大家都震惊了:同一篇论文,知网AIGC检测结果是0%,维普检测结果是46.25%。这差距也太离谱了吧?他问我到底该信哪个,我说先别急,看看你们学校要求用哪个平台。果然,他们学校指定用维普,那就以维普为准。这个案例不是个例,我自己也测过,同一篇论文在知网可能是30%,在维普就变成50%了。知网维普AIGC检测对比的结果差异,主要是因为两个平台的检测算法不一样。 知网的AIGC检测系统用的是「知识增强AIGC检测技术」,它依托知网庞大的学术文献数据库,从语言模式和语义逻辑两个维度进行检测。简单说就是,知网更侧重判断你的内容是否符合学术写作的逻辑,如果你的论文「看起来像学术论文」,即使有些AI特征,它也可能放过。而维普的检测算法采用自然语言处理和机器学习,对

By Ne0inhk
万方AIGC检测通不过?这几款降AI工具实测有效

万方AIGC检测通不过?这几款降AI工具实测有效

万方AIGC检测通不过?这几款降AI工具实测有效 TL;DR:万方AIGC检测算法与知网、维普不同,需要选择支持万方平台的降AI工具。推荐嘎嘎降AI(多平台适配,4.8元/千字)和率降(稳定可靠,4.2元/千字)。 万方检测的特殊性 很多同学以为降AI工具都是通用的,用一个就能搞定所有平台。但实际上,知网、维普、万方三大平台的AIGC检测算法各有不同。我之前用一款只针对知网优化的工具处理论文,知网检测降到了8%,但万方一测还有32%,差点没过学校的检测线。 万方的AIGC检测更侧重于文本特征分析,对某些AI生成模式的识别与知网有差异。所以如果你学校用的是万方检测,一定要确认工具是否支持万方平台,别只看知网的效果数据。 支持万方的降AI工具对比 工具价格(千字)万方效果达标率特色链接嘎嘎降AI4.8元60%→8%99.26%多平台适配官网率降4.2元65%→12%97%稳定可靠官网去AIGC3.5元70%→18%96%通用型官网比话降AI8元知网专精99%

By Ne0inhk

模型裁缝店:用Llama Factory为你的业务量身定制AI助手

模型裁缝店:用Llama Factory为你的业务量身定制AI助手 想象一下,一家律师事务所希望拥有一个能理解"诉讼时效""不当得利"等专业术语的AI助手,但现成的通用模型总把"举证责任"解释成"举重训练"。这种场景下,Llama Factory就像一家模型裁缝店,能帮你把基础大语言模型(如LLaMA、Qwen等)改造成精通法律、医疗等垂直领域的专业助手。本文将手把手教你如何用这个开源工具完成领域适配。 这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。不过无论使用哪种硬件资源,核心操作逻辑都是相通的。 为什么需要Llama Factory? 通用大模型虽然知识面广,但在专业领域常出现三类问题: * 术语误解:将"留置权"理解为"留置物品的权利" * 回答笼统:对"

By Ne0inhk

AI绘画趋势前瞻:NewBie-image-Exp0.1开源模型+弹性GPU部署实践

AI绘画趋势前瞻:NewBie-image-Exp0.1开源模型+弹性GPU部署实践 1. 为什么NewBie-image-Exp0.1值得关注 最近刷到不少朋友在问:现在做动漫图像生成,到底该选哪个开源模型?不是参数太大跑不动,就是效果太糊不敢发。而NewBie-image-Exp0.1的出现,像是一把刚好卡在“能跑”和“能打”之间的钥匙——它不追求参数堆叠的虚名,而是实打实地把3.5B规模的动漫生成能力,塞进一块16GB显存就能稳稳撑住的容器里。 这不是一个需要你花半天配环境、改报错、下权重、调精度的“半成品”。它已经把所有容易卡住新手的环节都提前踩过坑:浮点索引报错修好了,维度对不上问题解决了,数据类型冲突也一并处理完毕。你打开镜像,cd两下,python run一下,第一张图就出来了。没有“请先安装xxx”,没有“找不到模块xxx”,也没有“CUDA版本不匹配”的红色报错。 更关键的是,它没把“易用性”和“控制力”对立起来。

By Ne0inhk