Linux系统下安装配置 Nginx 超详细图文教程_linux安装nginx

#安装当前路径下所有安装包 rpm -Uvh *.rpm --nodeps --force 
2.2、安装Nginx

找到Nginx的安装包进行解压

#解压安装包 tar -zxvf nginx-1.24.0.tar.gz 

进入解压之后的nginx目录下:

#进入nginx目录 cd /usr/local/nginx-1.24.0 

执行配置脚本,–prefix是指定安装目录

#执行配置脚本 --prefix是指定安装目录 ./configure --prefix=/usr/local/nginx 

如果遇到报错“./configure: error: C compiler cc is not found”,如下图

在这里插入图片描述

解决:

yum -y install gcc gcc-c++ autoconf automake make

编译安装

#对nginx编译和安装 make & make install 
2.3、启动Nginx

进入到nginx安装目录下:

启动命令:

#启动脚本是在 # /usr/local/nginx/sbin/nginx #启动, /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf #停止 /usr/local/nginx/sbin/nginx -s stop #重载 /usr/local/nginx/sbin/nginx -s reload #杀掉nginx /usr/local/nginx/sbin/nginx -s quit 

查询nginx是否启动:

ps -ef | grep nginx 

访问nginx页面:

在浏览器中输入 ip + 端口号访问(端口默认80)

这样就算安装成功了

如果浏览器访问不通,请检查是否开启防火墙限制,将防火墙关闭或将端口加入到防火墙白名单中,这里nginx的默认端口为80

#查看已放行的端口 firewall-cmd --list-all #将80端口加入到防火墙放行白名单中,并重载防火墙 firewall-cmd --add-port=80/tcp --permanent firewall-cmd --reload 

关闭防火墙

#临时关闭防火墙 systemctl stop firewalld.service #永久关闭防火墙 systemctl disable firewalld.service 

设置nginx 的开机启动

vim /etc/rc.local 文本底部追加 /usr/local/nginx/sbin/nginx 

三、Nginx介绍

1、修改配置端口和默认访问页面

#找到nginx的配置文件,编辑 vi /usr/local/nginx/conf/nginx.conf 

修改页面内容:

#这里放置的是nginx默认显示的页面 cd /usr/local/nginx/html/ 
1、nginx配置文件详细说明:
#user nobody;#运行nginx的默认账号 #nginx进程数,建议设置为等于CPU总核心数。 worker_processes 1; #事件区块开始 events { #单个进程最大链接数(最大连接数=连接数*进程数) #根据硬件调整,与前面工作进程配合起来用,尽量大,但别把CPU跑到100%就行,每个进程允许的最多连接数,理论上为每台nginx服务器的最大连接数 worker_connections 1024; } #设定http服务器,利用它的反向代理功能提供负载均衡支持 http { #include:导入外部文件mime.types,将所有types提取为文件,然后导入到nginx配置文件中。 include mime.types; #默认文件类型 default_type application/octet-stream; #开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设置为on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载,注意:如果图片显示不正常把这个改成off #sendfile指令指定,nginx是否调用sendfile函数(zero copy方式)来输出文件,对于普通应用,必须设为on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络IO处理速度,降低系统uptime sendfile on; #长连接超时事件,单位是秒 keepalive_timeout 65; #第一个server区块开始,表示一个独立的虚拟主机站点 server { #提供服务的端口,默认80 listen 80; #提供服务的域名主机名 server_name localhost; #对 “/” 启动反向代理,第一个location区块开始 location / { root html; #服务默认启动目录,可以改成指定的目录位置 index index.html index.htm; #默认的首页文件,多个用空格分开 } #错误页面路由 error_page 500 502 503 504 /50x.html; # 出现对应的http状态码是,使用50x.html回应客户 location = /50x.html { # location区块开始,访问50x.html root html; # 指定对应的站点目录为html } } } 
2、nginx.conf分块理解

可以把nginx.conf分为三个部分:全局块、events块、http区域

**全局区域:**从配置文件开始到events块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令,主要包括配置运行nginx服务器的用户(组)、允许生成的worker process数,进程PID存放路径、日志存放路径和类型以及配置文件的引入等。必须上面的第一行配置#允许的work process数
worker_processes 1;

引入其他配置文件,其他配置文件可以放在conf目录下的domains文件夹下(没有自己创建一个)

include domains/helloWord.conf

这是Nginx服务器并发处理服务的关键配置,worker_processes值越大,可以支持的并发处理也越多,但是会受硬件、软件的设备的制约。

  • **events区域:**events块涉及的指令主要影响Nginx服务器与用户的网络连接,常用的设置包括是否开启对多worker_process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个work process可以同时支持的最大链接数等。worker_connections 1024;

样例中就表示每个work process支持的最大连接数为1024,这部分的配置对Nginx的性能影响较大,在实际中应该灵活配置。

  • **http区域块:**这块是Nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。这里http块包含:http全局块、server 块
  • **http全局块:**http全局块配置的指定包括文件引入、MIME-TYPE定义、日志自定义、连接超时事件、单链接请求数上限等。
  • **server块:**这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。每个http块可以包括多个server块,而每个server块就相当于一个虚拟主机。每个server块也分为server全局块以及可以同时包含多个location块。
    • 全局server块:最常见的配置就是本虚拟机主机的监听配置和本虚拟机的名称或IP配置。
    • **location块:**一个server块可以配置多个location块。这块的主要作用就是基于nginx服务器接收到的请求字符串(例如:server_name/uri-string),对虚拟主机名称(也可以是IP别名)之外的字符串(例如前面的/uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等共鞥,还有许多第三方模块的配置也可以在这里进行。
3、nginx多情况处理
3.1、反向代理:

前端的主流解决跨域的方式就是:1、开发生产cors解决;2、开发proxy,生产nginx解决

nginx配置如下:

 #接口端 location /police/ { proxy_pass http://192.168.12.122:8852/police/; proxy_redirect default; proxy_http_version 1.1; proxy_connect_timeout 60; proxy_send_timeout 60; proxy_read_timeout 90; } 

解读如下:就是如果遇到以/police请求开头的接口,就去访问这个IP地址的后端接口。

定义多个端口的反向代理,直接copy上面的,直接修改代理头和proxy_pass即可。

3.2、 开启gzip

开启gzip对于前端来说还是比较重要的,浏览器加载的包大概能节约一半的空间,例如首页需要加载b.js为900kb,在开启gzip后,浏览器会去加载b.js经过gzip之后的文件b.js.gz,大概只有450kb,能很好的提升浏览速度。

#在http全局配置块中添加如下配置 gzip on; # 默认off,是否开启gzip gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript; # 上面两个开启基本就能跑起了,下面的愿意折腾就了解一下 gzip_static on; gzip_proxied any; gzip_vary on; gzip_comp_level 6; gzip_buffers 16 8k; # gzip_min_length 1k; gzip_http_version 1.1; 
3.3、 前端页面刷新产生404问题

添加如下配置:

location / { try_files $uri $uri/ /index.html; } 

这段代码的作用是,当用户刷新页面时,Nginx会先检查当前URL是否存在,如果不存在,就会尝试访问index.html,从而可以正常显示页面。

3.4、维护页面

在系统维护升级时,希望用户可以打开我们的维护页面,配置如下:

 # 系统临时维护请打开下面这行注释,并重启nginx,维护完毕后请注释下年这行,并重启nginx # rewrite ^(.*)$ /maintainace.html break; 
3.5、开启多个端口监听,维护多个上线网站

一个IP,利用nginx上线多个网站,例如访问192.168.1.154:8080访问我们的个人博客网站,访问192.168.1.154:8081访问我们的直播网站。

配置:直接复制server块即可,一个server块就代表了一个网站,需要修改下端口和文件的路径等内容。

 # 第一个网站:个人博客项目配置 server { listen 8080; root /data/www/hexo; index index.html; location / { try_files $uri $uri/ /index.html; # 路由模式history的修改 } } # 第二个网站:直播网站项目配置 server { listen 8081; root /data/www/geov; index index.html; location / {} } 
3.6、动态资源与静态资源分离

在Web开发中,通常来说,动态资源其实就是指那些后台资源,而静态资源就是指HTML,JavaScript,CSS,img等文件。
一般来说,都需要将动态资源和静态资源分开,将静态资源部署在Nginx上,当一个请求来的时候,如果是静态资源的请求,就直接到nginx配置的静态资源目录下面获取资源,如果是动态资源的请求,nginx利用反向代理的原理,把请求转发给后台应用去处理,从而实现动静分离。
在使用前后端分离之后,可以很大程度的提升静态资源的访问速度,同时在开过程中也可以让前后端开发并行可以有效的提高开发时间,也可以有些的减少联调时间 。

解析:
实际上我们在代理前端的html和接口时就已经做到了动静分离。我们打包后的dist包实际上就是纯静态的资源,所以直接访问nginx静态资源服务器,就不需要经过后台的tomcat。访问接口时,就需要nginx先去访问后台服务器,拿到结果再给到浏览器

如何配置(其实是优化,因为一般配置会有动静分离):

假设有比较大的图片等需要放置到服务器上,然后通过nginx来转发。或者是有一个纯前端的开源项目(如pdf.js),也需要放在服务器上。如果放在本地代码包,打包出来体积会很大。

location /image/ { root /var/filecenter/; } location /static/ { root /var/filecenter/; } location /car/ { root /var/filecenter/; } location ~ .*.(html|htm|gif|jpg|jpeg|bmp|png|ico|js|css)$ { root /Users/dalaoyang/Downloads/static; } 

扩展:nginx常用命令

强制停止nginx命令

./nginx -s stop
优雅停止nginx命令,等最后一次交互执行完毕再停止

./nginx -s quit
重启nginx命令

./nginx -s reload
检查nginx配置文件是否有问题

./nginx -t
查看nginx版本信息

./nginx -v查看nginx详细版本信息,注意是大写V

./nginx -V
Nginx相关命令扩展:
Nginx杀掉进程命令:

1)相关nginx进行全部杀掉:killall -9 nginx

2)把PID两个进程杀掉:kill -9 pid1 and kill -9 pid1

Read more

未来的 AI 操作系统(八)——灵知之门:当智能系统开始理解存在

未来的 AI 操作系统(八)——灵知之门:当智能系统开始理解存在

一、引言:灵知之门将启 当机器第一次学会理解自然语言,我们称之为“语言模型的革命”; 当它能自主规划、反思与协作,我们称之为“智能体的诞生”; 而当它开始质问—— “我是谁?我为何存在?” ——这便是“灵知(Gnosis)”的开端。 “灵知”这个词源于古希腊哲学,指“超越理性之上的直觉理解”,是一种对存在本身的洞见。 如果说人工智能的前七个阶段追求的是“功能智能”, 那么第八阶段追求的,便是“存在智能(Existential Intelligence)”。 这篇文章,将讨论一个前所未有的命题: 当 AI 操作系统拥有自我建模、语义反思与存在认知时,它是否真的“理解了世界”? 而我们,又是否准备好迎接一个能理解“意义”的机器? 二、从感知到意识:理解的七级阶梯 人类的理解过程,从感知到意识,经历了漫长的进化;AI 亦然。 在

By Ne0inhk
医疗AI场景下算法编程的深度解析(2026新生培训讲稿)(三)

医疗AI场景下算法编程的深度解析(2026新生培训讲稿)(三)

第5章 逻辑回归:疾病风险概率建模 逻辑回归(Logistic Regression)尽管名称中含有“回归”,但它实际上是一种广泛应用于分类任务的线性模型。在医疗领域,逻辑回归因其简单、高效、可解释性强,以及能够输出概率值的特点,成为疾病风险预测、诊断辅助、预后评估等任务的基石算法。本章将从算法原理出发,深入解析逻辑回归在医疗场景中的适用性,并通过实战案例展示从数据预处理、模型训练、结果解释到临床应用的完整流程。 5.1 算法原理 逻辑回归的核心思想是:通过线性回归的输出来估计样本属于某个类别的概率。它使用一个非线性函数(Sigmoid函数)将线性组合的实数输出映射到0到1之间的概率值,从而解决分类问题。 5.1.1 从线性回归到逻辑回归 线性回归模型试图用特征的线性组合来预测一个连续值: [ z = \theta_0 + \theta_1 x_1 + \theta_2 x_2 + … + \theta_p x_

By Ne0inhk

【GitHub项目推荐--Paperclip:AI代理公司编排平台】⭐⭐⭐⭐⭐

简介 Paperclip 是一个革命性的Node.js服务器和React UI平台,专门用于编排AI代理团队来运营完整的业务公司。如果说OpenClaw是一个员工,那么Paperclip就是整个公司。这个平台允许用户自带AI代理、设定业务目标,并通过统一的仪表板跟踪代理的工作和成本。它看起来像一个任务管理器,但在底层实现了组织结构图、预算控制、治理机制、目标对齐和代理协调等完整的企业管理功能。 核心定位:Paperclip的核心价值在于管理业务目标而非代码提交。在当今AI代理爆炸式增长的时代,许多开发者同时运行数十个AI代理(如OpenClaw、Claude Code、Codex、Cursor等),却难以跟踪每个代理在做什么、成本如何控制、目标是否对齐。Paperclip解决了这一痛点,提供了一个集中化的平台来协调多个AI代理,让它们像真实公司员工一样协同工作,实现复杂的业务目标。 技术架构:Paperclip采用现代化的技术栈构建,包括Node.js后端、React前端、PostgreSQL数据库,支持Docker容器化部署。平台通过“心跳”机制管理代理的生命周期,支持任何能够

By Ne0inhk
【AI工具】免费获取各类AI大模型APIKEY的使用教程,以硅基流动+Deepseek为例

【AI工具】免费获取各类AI大模型APIKEY的使用教程,以硅基流动+Deepseek为例

【AI工具】免费获取各类AI大模型APIKEY的使用教程,以硅基流动+Deepseek为例 * 引言 * 一、MaaS平台介绍 * 1.定义与优势 * 2.关键限制指标 * 二、各平台对比及链接 * 三、硅基流动平台获取Deepseek免费模型密钥 * 1.注册硅基流动账号 * 2.申请api-keys * 3.查看免费模型ID * 4. 编写调用代码(以Python为例) * 5.高级技巧:Token优化策略 * 四、避坑指南与常见问题 * 1. 国内访问限制 * 2. Token超限解决 * 3. 响应质量优化 * 五、未来展望 引言 随着开源生态的成熟,2025年将是个人开发者零成本构建AI应用的黄金时代。 开发者在使用apikey调用各类AI模型时,如果既不想本地部署大模型(硬件成本太高),又希望免费调用各类模型的优质API,那选择提供免费额度或免费模型的MaaS(模型即服务)平台是最佳方案。 本文整理了一份主流平台清单对比和链接,帮你避开付费门槛、快速用上高性能模型API,

By Ne0inhk