2.nginx的安装和配置实例(1)
Nginx 的安装
1、准备工作
(1)打开虚拟机,使用远程连接工具连接 linux 操作系统
(2)到 nginx 官网下载软件
http://nginx.org/ 2、开始进行 nginx 安装
(1)安装 pcre 依赖
第一步 联网下载 pcre 压缩文件依赖
wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz
第二步 解压压缩文件
使用命令 tar –xvf pcre-8.37.tar.gz
第三步./configure 完成后,回到 pcre 目录下执行 make,最后执行 make install
(2)安装 openssl 、zlib 、 gcc 依赖
yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel
(3)安装 nginx
- 使用命令解压
- ./configure
- make && make install
进入目录 /usr/local/nginx/sbin/nginx 启动服务
在 windows 系统中访问 linux 中 nginx,默认不能访问的,因为防火墙问题
(1)关闭防火墙
(2)开放访问的端口号,80 端口
查看开放的端口号
firewall-cmd --list-all
设置开放的端口号
firewall-cmd --add-service=http –permanent
firewall-cmd --add-port=80/tcp --permanent
重启防火墙
firewall-cmd –reload
:其中192.168.17.129 为自己服务器的IP
3.Nginx 的常用的命令
进入 nginx 目录中
cd /usr/local/nginx/sbin
1、查看 nginx 版本号
./nginx -v 2、启动 nginx
./nginx
3、停止 nginx
./nginx -s stop
4、重新加载 nginx
./nginx -s reload
Nginx 的配置文件
1、nginx 配置文件位置
cd /usr/local/nginx/conf/nginx.conf
4.配置文件中的内容
包含三部分内容
(1)全局块:配置服务器整体运行的配置指令
比如 worker_processes 1;处理并发数的配置
(2)events 块:影响 Nginx 服务器与用户的网络连接
比如 worker_connections 1024; 支持的最大连接数为 1024
(3)http 块
还包含两部分:http 全局块 server 块
Nginx 配置实例-反向代理实例 1
(1)打开浏览器,在浏览器地址栏输入地址 www.123.com,跳转到 liunx 系统 tomcat 主页面中
2、准备工作
(1)在 liunx 系统安装 tomcat,使用默认端口 8080
- tomcat 安装文件放到 liunx 系统中,解压
- 进入 tomcat 的 bin 目录中,./startup.sh 启动 tomcat 服务器
(2)对外开放访问的端口
firewall-cmd --add-port=8080/tcp --permanent
firewall-cmd –reload
查看已经开放的端口号
firewall-cmd --list-all
(3)在 windows 系统中通过浏览器访问 tomcat 服务器
3、访问过程的分析
4、具体配置
第一步 在 windows 系统的 host 文件进行域名和 ip 对应关系的配置
(1)添加内容在 host 文件中
第二步 在 nginx 进行请求转发的配置(反向代理配置)
5、最终测试
Nginx 配置实例-反向代理实例 2
1、实现效果
使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中
nginx 监听端口为 9001,
访问 http://192.168.17.129:9001/edu/ 直接跳转到 127.0.0.1:8080
访问 http:// 192.168.17.129:9001/vod/ 直接跳转到 127.0.0.1:8081 2、准备工作
(1)准备两个 tomcat 服务器,一个 8080 端口,一个 8081 端口
(2)创建文件夹edu ,vod 和测试页面 a.html(
8080!!
) a.html(
8081!!
)
3、具体配置
(1)找到 nginx 配置文件,进行反向代理配置
(2)开放对外访问的端口号 9001 8080 8081
4、最终测试
分别启动两个Tomcat 和nginx 然后访问
Nginx 配置实例-负载均衡3
1、实现效果
(1)浏览器地址栏输入地址 http://192.168.17.129/edu/a.html,负载均衡效果,平均 8080
和 8081 端口中
2、准备工作
(1)准备两台 tomcat 服务器,一台 8080,一台 8081
(2)在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建
页面 a.html,用于测试
3、在 nginx 的配置文件中进行负载均衡的配置
随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题,顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应
足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎,nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服务,而且 Nginx 提供了几种分配方式(策略):
4、nginx 分配服务器策略
第一种 轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
第二种 weight
weight 代表权重默认为 1,权重越高被分配的客户端越多
第三种 ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器
第四种 fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
下面附上实现所以须要的软件包和配置文件:
https://pan.baidu.com/s/1muPiebUfvBelpk7llhgdxQ 提取码:fzb8