在线或离线llama.cpp安装和模型启动

在线或离线llama.cpp安装和模型启动

该版本安装时间是2025-01-10,因为不同版本可能安装上会有所不同,下面也会讲到。

先说下问题——按照官方文档找不到执行命令llama-cli或./llama-cli

先附上llama.cpp的github地址:https://github.com/ggerganov/llama.cpp,build地址:https://github.com/ggerganov/llama.cpp/blob/master/docs/build.md。不知道你有没有出现这种情况,按照官方文档安装之后,发现根本找不到执行命令llama-cli或./llama-cli,如果没有可以跳过,如果有请按照我的以下流程安装一遍。

下载llama.cpp

我这里使用的是git命令下载:

git clone https://github.com/ggerganov/llama.cpp

如果需要在内网服务器中安装,可以下载llama.cpp的源码文件或二进制文件,下载地址:https://github.com/ggerganov/llama.cpp/releases

在这里插入图片描述

编译

下面进入编译阶段,服务器使用的是nvidia-A10的gpu,编译使用的cuda编译版本。
如果是内网安装,需要先将安装包拷贝进来,然后解压:tar -xzvf ****.tar.gz

cd llama.cpp cmake -B build -DGGML_CUDA=ON # 启动cuda加速 cmake --build build --config Release 

启动模型

其实到这里llama.cpp已经编译安装好了,但是你如果看官方文档,你会发现你找不到执行命令llama-cli或./llama-cli,其实如果你想直接使用llama-cli命令,你需要配置环境变量,如果你想使用./llama-cli,你需要进入build/bin目录执行。

cd llama.cpp/build/bin 

启动模型

./llama-cli -m /mnt/workspace/models/qwen2.5-7b-instruct-q4_k_m.gguf -co-cnv-p"你是一个好的助手"-fa-ngl80-n512

Read more

AI绘画风格迁移魔法:3分钟让普通照片变身艺术大作

想要让日常照片瞬间拥有梵高的星空漩涡,或是赛博朋克的霓虹质感吗?Stable Diffusion WebUI Forge让这一切变得触手可及。无需专业绘画技能,只需几个简单步骤,你就能成为数字艺术魔法师,将平凡的影像转化为惊艳的艺术作品。 【免费下载链接】stable-diffusion-webui-forge 项目地址: https://gitcode.com/GitHub_Trending/st/stable-diffusion-webui-forge 🎨 创意无限:探索AI绘画的奇幻风格世界 AI绘画最迷人的地方就在于它能打破艺术风格的界限。在Forge的画布系统中,你可以: * 古典艺术:梵高、莫奈、毕加索等大师风格一键应用 * 现代潮流:赛博朋克、蒸汽波、像素艺术任你挑选 * 混合创作:将不同风格元素叠加,创造独一无二的视觉体验 这张简洁的画布界面就是你的创意工作台,通过简单的拖拽和点击操作,就能开始你的艺术创作之旅。 ⚙️ 参数解密:新手必学的调参指南 对于初学者来说,掌握几个关键参数就能大幅提升作品质量: 参数名称推荐范围新手技巧CFG

DeepSeek-R1-Distill-Llama-70B:开源推理效率新高度

深度求索(DeepSeek)正式发布基于Llama-3.3-70B-Instruct蒸馏的开源大模型DeepSeek-R1-Distill-Llama-70B,该模型通过创新的强化学习与蒸馏技术结合,在保持700亿参数规模模型强大推理能力的同时,显著提升了实际应用中的运行效率,为开源社区提供了兼具高性能与部署灵活性的新一代推理模型。 【免费下载链接】DeepSeek-R1-Distill-Llama-70BDeepSeek-R1-Distill-Llama-70B:采用大规模强化学习与先验指令微调结合,实现强大的推理能力,适用于数学、代码与逻辑推理任务。源自DeepSeek-R1,经Llama-70B模型蒸馏,性能卓越,推理效率高。开源社区共享,支持研究创新。【此简介由AI生成】 项目地址: https://ai.gitcode.com/hf_mirrors/deepseek-ai/DeepSeek-R1-Distill-Llama-70B 当前大语言模型领域正面临“性能-效率”平衡的关键挑战。随着模型参数规模持续增长,虽然推理能力不断突破,但高算力需求和部署成本成为企业落地的主要

Whisper-turbo保姆级教程:小白必看,云端免配置体验

Whisper-turbo保姆级教程:小白必看,云端免配置体验 你是不是也遇到过这样的情况?孩子每天上网课,老师讲得快、内容多,你想帮孩子整理重点,但一听就是一两个小时的录音,手动记笔记根本跟不上节奏。更头疼的是,孩子自己也不愿意回听,知识点就这么悄悄溜走了。 别急——现在有个“AI小助手”能帮你把网课录音自动转成文字,还能标出时间点、提取关键内容,就像有个贴心的家教在帮你做课堂笔记!而且,不需要你会编程,也不用买新电脑,哪怕你对“Python”“显卡”这些词一听就头大,也能轻松上手。 这个神器就是 Whisper-turbo,它是目前最火的语音识别AI之一,由OpenAI开发,支持中文,准确率高,速度快,特别适合处理日常语音场景,比如网课、会议、讲座等。最关键的是,我们可以通过云端镜像一键部署,完全不用自己装软件、配环境,真正实现“打开就能用”。 这篇文章就是为你量身打造的——一位对技术零基础的家庭主妇,也能从0开始,5分钟内启动Whisper-turbo,上传孩子的网课录音,

2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

LLM-申请 Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例) 一、请求访问Llama模型 ⭐️ 随便进入想要访问的Llama模型,这里展示的是Meta-Llama-3-8B-Instruct。 1、 点击链接,申请访问Llama模型 2、 填写相关申请信息,注意如下:👇🏻(1)、国家最好选「美国」,然后填 「美国的大学」;(2)、操作这一步时,节点需要是对应国家的节点(若是美国,那么节点也要是美国)。 3、 提交成功后,就可开始申请Llama模型的Hugging Face 访问令牌啦~ 二、申请Llama模型的Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)⭐️ 1、判断是否需要申请 访问Meta-Llama-3.1-8B-Instruct模型在Hugging Face上的官方仓库。 假若你看见“You need to agree to share your