负载均衡
先来简单了解一下什么是负载均衡,单从字面上的意思来理解就可以解释N台服务器平均分担负载,不会因为某台服务器负载高宕机而某台服务器闲置的情况。那么负载均衡的前提就是要有多台服务器才能实现,也就是两台以上即可。
测试环境
在VMware里安装了三台CentOS。
A服务器IP :192.168.0.219 (主)
B服务器IP :192.168.0.119
C服务器IP :192.168.0.109
部署思路
A服务器做为主服务器,域名直接解析到A服务器(192.168.0.219)上,由A服务器负载均衡到B服务器(192.168.0.119)与C服务器(192.168.0.109)上。
在A服务器上,upstream指令——分配负载
vi /etc/nginx/conf.d/default.conf
upstream 192.168.0.219 {
server 192.168.0.119:80;
server 192.168.0.109:80;
}
server {
listen 80;
server_name 192.168.0.219;
charset utf8;
location / {
proxy_pass http://192.168.0.219;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
保存重启nginx
在B、C服务器上,
vi /etc/nginx/conf.d/default.conf
server {
listen 80;
server_name 192.168.0.219;
index index.html;
root /usr/share/nginx/html;
}
保存重启nginx
测试
当访问http://192.168.0.219的时候,为了区分是转向哪台服务器处理我分别在B、C服务器下写一个不同内容的index.html文件,以作区分。
打开浏览器访问a.com结果,刷新会发现所有的请求均分别被主服务器(192.168.5.149)分配到B服务器(192.168.0.119)与C服务器(192.168.0.109)上,实现了负载均衡效果。
主服务器不能提供服务吗?
以上例子中,我们都是应用到了主服务器负载均衡到其它服务器上,那么主服务器本身能不能也加在服务器列表中,这样就不会白白浪费拿一台服务器纯当做转发功能,而是也参与到提供服务中来。
怎么解决这个问题呢?因为80端口已经用来监听负载均衡的处理,那么本服务器上就不能再使用80端口来处理192.168.0.219的访问请求,得用一个新的。
于是我们在主服务器中编辑/etc/nginx/conf.d/default.conf,添加以下内容
server {
listen 8080;
server_name 192.168.0.219;
index index.html;
root /usr/share/nginx/html;
}
重启nginx
然后,再重新渡负载均衡。
ubuntu15.04手动安装nginx1.93并配置php:http://www.linuxdiyf.com/linux/13151.html
如何在Ubuntu 15.04中安装nginx和google pagespeed:http://www.linuxdiyf.com/linux/12725.html
ubuntu15.04 nginx1.6.5配置虚拟主机:http://www.linuxdiyf.com/linux/12585.html
ubuntu 15.04手动安装nginx 1.9.0:http://www.linuxdiyf.com/linux/12038.html
ubuntu14.04安装nginx和php5.6.12:http://www.linuxdiyf.com/linux/13418.html