【Linux】 麒麟服务器V10 SP3安装配置Redis操作总结(包管理方式)

【Linux】 麒麟服务器V10 SP3安装配置Redis操作总结(包管理方式)

文章目录


前言

本文记录一次在麒麟服务器V10 SP3上,通过dnf包管理工具来安装Redis,简单配置并启用服务的经历,单纯列举操作步骤,一做下梳理,二希望能帮到有需要的朋友们。

服务器版本是x86_64的麒麟V10 SP3。

[root@Server yunwei]# uname -a Linux Server 4.19.90-52.39.v2207.ky10.x86_64 #3 SMP Wed Jun 5 17:23:57 CST 2024 x86_64 x86_64 x86_64 GNU/Linux

一、Redis安装与准备工作

1.1 通过包管理查找Redis

[root@DY-XCX-WEB yunwei]#sudo dnf list redis* 上次元数据过期检查:0:24:18 前,执行于 2025年09月16日 星期二 18时31分51秒。 可安装的软件包 redis.x86_64 7.2.10-1.p01.ky10 @ks10-adv-updates redis-devel.x86_64 6.2.7-1.p04.ky10 ks10-adv-updates redis-doc.noarch 

1.2 如果官方源里没有Redis,添加第三方软件源

sudo dnf install epel-release 

执行指令后再次重试

1.3 安装Redis

dnf install redis 

二、Redis配置

修改Redis配置文件,按需修改

vi /etc/redis.conf 

2.1 绑定地址

vi 编辑 /etc/redis.conf 目标地址配置文件后执行/bind指令搜索,回车键后按n搜索下一个,找到NETWORK区域,如果需要远程访问的话修改bind 127.0.0.1为bind 0.0.0.0

################################## NETWORK ##################################### ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ bind0.0.0.0 

2.2 端口

还是在NETWORK区域,默认端口是6379,按需改动。

# Accept connections on the specified port, default is 6379 (IANA #815344).# If port 0 is specified Redis will not listen on a TCP socket. port 6379

2.3 密码设置

查找# requirepass foobared,下方填入

requirepass 你的密码 

2.4 运行内存限制

查找MEMORY MANAGEMENT

#最大内存限制 maxmemory 1gb #内存淘汰策略 maxmemory-policy allkeys-lru 
常用的内存淘汰策略有
noeviction:当内存达到上限,新写入操作会直接返回错误,不淘汰任何数据。 【默认】
allkeys-lru:Least Recently Used,淘汰最近最少使用的键 【推荐】
volatile-lru:从设置了过期时间的键中,淘汰最近最少使用的键 【推荐】
allkeys-random:从所有键中,随机淘汰键 【混沌邪恶】
volatile-random:仅从设置了过期时间的键中,随机淘汰键
volatile-ttl:仅从设置了过期时间的键中,淘汰剩余生存时间最短的键
allkeys-lfu:从所有键中,淘汰最不经常使用的键 【纯缓存策略】
volatile-lfu:仅从设置了过期时间的键中,淘汰最不经常使用的键

2.5 持久化——RDB与AOF

Redis里有两种数据持久化的方式发,分别是RDB(Redis DataBase) 和 AOF(Append Only File)。

RDB类似快照,全盘保存数据。在特定条件下触发,将此刻内存的数据全盘保存。由于RDB并不是每时每刻都在执行,存在丢数据的风险。快照会保存为尾缀.rdb的文件

AOF类似一种操作记录日志文本文件,Redis执行的命令会被同步写入AOF文件,这样就达到了数据的持久化。指令会保存为尾缀.aof的文件

AOF是默认关闭,如果开始了AOF,Redis会优先使用AOF文件来还原Redis内存状态,否则就通过RDB文件还原。

搜索SNAPSHOTTING,我们通过如下配置设置:
RDB策略配置

################################ SNAPSHOTTING ################################# Save the DB to disk.# 900秒内有1个更改则保存 save 9001# 300秒内有10个更改则保存 save 30010# 60秒内有10000个更改则保存 save 6010000

搜索APPEND ONLY MODE,我们找到如下配置

AOF策略配置

############################## APPEND ONLY MODE ################################开启AOF appendonly yes#AOF文件名称 appendfilename "appendonly.aof"#AOF将缓冲区中的AOF日志写入磁盘频率 appendfsync everysec 

2.6 后台运行

搜索GENERAL,找到daemonize,修改为daemonize yes,允许后台运行

################################# GENERAL ###################################### By default Redis does not run as a daemon. Use 'yes' if you need it.# Note that Redis will write a pid file in /var/run/redis.pid when daemonized.# When Redis is supervised by upstart or systemd, this parameter has no impact. daemonize yes

三、操作指令

3.1 启动Redis

sudo systemctl start redis 

3.2 停止Redis

sudo systemctl stop redis 

3.3 重启Redis

sudo systemctl restart redis 

3.4 设置开机自启

sudo systemctl enable redis 

3.5 查看状态

sudo systemctl status redis 

3.6 查看Redis进程

[root@Server yunwei]# ps -ef | grep redis redis 32301781010:48 ? 00:00:00 /usr/bin/redis-server 0.0.0.0:6379 root 32359453092328010:53 pts/0 00:00:00 grep redis 

Read more

人工智能:预训练语言模型与BERT实战应用

人工智能:预训练语言模型与BERT实战应用

人工智能:预训练语言模型与BERT实战应用 1.1 本章学习目标与重点 💡 学习目标:掌握预训练语言模型的核心思想、BERT模型的架构原理,以及基于BERT的文本分类任务实战流程。 💡 学习重点:理解BERT的双向注意力机制与掩码语言模型预训练任务,学会使用Hugging Face Transformers库调用BERT模型并完成微调。 1.2 预训练语言模型的发展历程与核心思想 1.2.1 为什么需要预训练语言模型 💡 传统的自然语言处理模型(如LSTM+词嵌入)存在两个核心痛点:一是需要大量标注数据才能训练出高性能模型,二是模型对语言上下文的理解能力有限。 预训练语言模型的出现解决了这些问题。它的核心思路是先在大规模无标注文本语料上进行预训练,学习通用的语言知识和语义表示,再针对特定任务进行微调。这种“预训练+微调”的范式,极大降低了对标注数据的依赖,同时显著提升了模型在各类NLP任务上的性能。 预训练语言模型的发展可以分为三个阶段: 1. 单向语言模型阶段:以ELMo为代表,通过双向LSTM分别学习正向和反向的语言表示,再拼接得到词向量。但ELMo本质还

By Ne0inhk
用Claude Code构建AI内容创作工作流:从灵感到发布的自动化实践

用Claude Code构建AI内容创作工作流:从灵感到发布的自动化实践

✨道路是曲折的,前途是光明的! 📝 专注C/C++、Linux编程与人工智能领域,分享学习笔记! 🌟 感谢各位小伙伴的长期陪伴与支持,欢迎文末添加好友一起交流! * 前言 * 一、为什么选择Claude Code? * 二、核心工作流设计 * 2.1 整体流程图 * 2.2 核心模块架构 * 三、实战代码实现 * 3.1 灵感捕捉器 * 3.2 与Claude Code集成 * 3.3 内容生成工作流 * 3.4 质量审查自动化 * 四、完整工作流示例 * 五、让AI工作起来还不够,需要让它"为你工作" * 六、创作不是终点,分享才是 * 七、总结 * 参考资源 前言

By Ne0inhk
人工智能:大模型分布式训练与高效调参技术实战

人工智能:大模型分布式训练与高效调参技术实战

人工智能:大模型分布式训练与高效调参技术实战 1.1 本章学习目标与重点 💡 学习目标:掌握大语言模型分布式训练的核心原理、主流框架使用方法,以及高效调参策略,能够解决大模型训练过程中的算力瓶颈和效果优化问题。 💡 学习重点:理解数据并行、张量并行、流水线并行的技术差异,掌握基于DeepSpeed的分布式训练实战,学会使用超参数搜索提升模型性能。 1.2 大模型训练的核心挑战 1.2.1 单卡训练的算力瓶颈 💡 大语言模型的参数量动辄数十亿甚至上万亿,单张GPU的显存和计算能力完全无法满足训练需求。以LLaMA-2-70B模型为例: * FP32精度下,模型参数本身就需要约280GB显存,远超单张消费级或企业级GPU的显存容量。 * 训练过程中还需要存储梯度、优化器状态等数据,实际显存占用是模型参数的3-4倍。 * 单卡训练的计算速度极慢,训练一轮可能需要数月时间,完全不具备工程可行性。 1.2.2 大模型训练的核心需求 为了高效完成大模型训练,我们需要解决以下三个核心问题: 1. 显存扩容:通过并行技术,将模型参数和计算任务分布到多张GPU上,突破

By Ne0inhk