您尚未登录,请登录后浏览更多内容! 登录 | 立即注册

QQ登录

只需一步,快速开始

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 11229|回复: 0
打印 上一主题 下一主题

[centos] 浅谈Nginx之反向代理与负载均衡

[复制链接]
跳转到指定楼层
楼主
发表于 2020-2-25 23:05:39 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

Nginx的负载均衡是基于反向代理实现的,因此,本文先讨论什么是反向代理,再在这个的基础上讨论负载均衡以及负载均衡时应该注意哪些策略。

反向代理:

如下图所示,


+ O0 G  _, M) C4 t) N3 K1 u

  ↓-----Nginx将结果返回给浏览器---丨                                                          对Tomcat来说,只知道服务对象是Nginx服务器

浏览器  -发起对该域的访问请求->   Nginx  --------------Nginx将请求来转发给Tomcat服务器---->  Tomcat...

                                                          丨-对Tomcat来说,只对nginx负责,将结果返回给Nginx服务器---↑


3 l  }0 F) s4 r) @: j9 y) A从图中,我们可以知道,对于浏览器来说,他会发一个http://www.a.com/uri请求到Nginx服务器,对于他来说,他认为数据就是从http://www.a.com/uri域中返回的,事实上,当http://www.a.com/uri到达Nginx服务器后,Nginx服务器会将其转发给http://www.b.com/uri,从http://www.b.com/uri域中取得数据并将其返回给浏览器,这个步骤浏览器是不知道的,也就是说,浏览器并不知道http://www.b.com/uri该域的存在,同理,http://www.b.com/uri所在的域(图中的Tomcat)也并不知道浏览器的存在,他也只对Nginx负责。Nginx的这么一个过程便称为反向代理。- j: P* c3 ^2 ?* `

7 Z# I( q3 T0 o' f% i那么,Nginx服务器是如何实现这一步的呢,事实上也很简单,只需要在location中做一下简单的配置即可,命令大概如下图所示:(配置完命令记得reload重新加载才能生效)6 S1 x  w. e, o, j8 j  _4 ^

3 y) C$ H6 b4 j3 R9 {4 T+ j9 S0 A# n
  1. worker_processes 1;
    & H7 ?% w0 R+ b3 Z/ o
  2. events{
复制代码
# J; ^" v# v; G3 {

% \6 K3 G7 n+ T3 |" r9 Q1 `重点在于location处,这样的配置代表的是,所有来自浏览器的请求,在Nginx收到之后,都会代理到http://192.168.1.62:8080所在的地方
! T4 O( _# q0 u) Q& @
# q3 o3 c1 C/ }  W3 y比如,我浏览器上发起http://192.168.1.61/a/index.html;Nginx收到之后,将会发出http:// 192.168.1.62:8080/a/index.html这么一个请求到所连接的服务器上,如上图的Tomcat。8 p- a$ B; c. `+ m6 V

0 [9 ]' g( o% u7 G# o
! [. v. B# ?6 @) u7 {接下来我们做这样一个假设,假如后端连接着几台。几十台服务器呢,这个时候Nginx也是做同样的代理吗,答案是肯定的。图示如下:那么,在这么多台服务器上,Nginx的转发又是基于怎样的策略呢?这个时候就涉及在负载均衡了,说白了就是,应该怎样的分发,才能做到资源的最大限度的利用?; q2 H+ h8 m! q3 K" s
( n) x* y3 A6 ~* y& H0 [6 s

  O) |% o1 t5 `3 e2 h/ B 9 g* h/ y0 ]! J- w6 N! T

- p& ^( }' n/ B  {9 w% s. V9 {$ [负载均衡策略

我们这里假设三台服务器的IP地址分别为

http:// 192.168.1.62:8080

http:// 192.168.1.63:8080

http:// 192.168.1.64:8080

1.   平均轮询

配置如下图:

- |- M* Y7 i" {' |3 I% R
- z/ x- _3 F! [$ ]9 z% s
* u. u2 g0 c0 a+ i1 ?) b

这里我们把后台所有的服务器放入upstream中,并在代理中进行引用。' A: a$ R  _# m1 V8 N8 E8 J0 }

2.   加权轮询,使用weight参数设置,配置如下7 _$ q2 u# I4 O" [  b
' ]0 B# ]+ P$ {- J7 a
3.   ip_hash策略
( a/ [2 X. A3 `. a(根据用户的IP地址进行hash运算,只要是同个用户发的请求,就会被永远地转发在某台服务器上,比如张三发的请求第一次时是由Tomcat1返回的,李四的是有Tomcat2返回的,那么,以后张三的所有请求,都有由Tomcat1返回,这就是ip_hash策略),配置如下:2 L2 ^/ t& E' b3 k
其他地方保持不变,在upstreaem中如下设置:, {& \/ e* e6 d' |0 s/ }

3 b$ `& o9 q* w- N5 g7 o0 M8 P  d3 D+ K
2 z7 U0 v! M1 F/ R! Q. [

. H7 x5 \* L. c) m) Q3 [8 O" N, B4.   fair策略
$ b+ m- C6 w$ X$ Q' ^/ X4 P. y0 K0 T(动态weight策略,我们的加权轮询是显式指定weight的,而fair策略是根据服务器的响应能力进行动态指定的,而意义上讲,我觉得是更为智能化的解决方法,不过这里要记住一点,fair策略是一个第三方策略)9 G# G1 A9 v, t7 u
5.   url_hash策略0 ?* m3 Q! d$ Z6 J; r6 Y

) h; ]" [/ \; M1 Y( ~. w& s(类似于ip,只不过绑定的值是url,这个也是第三方策略)
. a. [+ J# O" N& u& jfair策略与url_hash策略的配置与ip_hash策略的类似,直接把upstream tomcats 中的ip_hash替换为fair和url_hash即可,不过这里需要注意的是fair和url_hash都是第三方扩展,因此需要先安装第三方扩展模块,直接百度搜索nginx-upstream-fair-master.zip与upstream-url-hash -master.zip;解压安装使用make&&make install重新编译源文件即可4 c5 ~6 T4 v* {: X( m9 A

) K( q3 }* Y/ n' W8 h% d
: A1 Z) x/ K: e* k9 Z' v: T. o; P) _
0 F9 \# T. t. `7 |8 u0 p9 Eurl_hash策略的用处?# j3 l5 e( l. w2 S; ~* H/ \  _  a
$ q9 \4 d4 J# ]6 L( s" h
url_hash策略比较适合于大型电子商务网站,对于不同的商品便是不同的url,我们可以据此进行负载均衡。
, T1 C( r, V5 W/ a0 Z
$ h! `7 A: _3 E; k2 q+ o原理就是不同的商品形成不同的静态页面,然后服务器根据不同商品的火爆程度,按照命中率高的放在缓存里,加快访问速度,也就是说实现了一个基于缓存的服务器,相当于把有限的缓存最优化起来;
" X# c+ z5 M5 s* y6 h! y) b
$ l1 O' C5 p- e" ^  T& Z- C
. P0 G4 e! w1 h. ]
8 ]+ B& Y% x+ Y+ \; R其他的配置
1 R6 u7 G) l7 b$ Q( r+ f7 p9 \, A备份与停机状态:6 K1 T  D- {+ Y$ A% v
server 192.168.1.64 backup;//备份,不参与转发,只有当所有服务器都挂掉时才参与转发;# f5 J% q; j8 ]: [4 d! C

6 G. K  p9 P; ~% m! @. yserver 192.168.1.65 down;//临时停机维护,不参与任何转发,是关闭状态,* i/ g) h( W2 a& [0 K" n# o4 g

; T* {6 y! x4 o& Q% g/ R2 Tdown存在的意义在于,有时我们需要对服务器做临时停机更新维护,假如我们直接关闭服务器的话,那么对于Nginx来说,他还是会把请求发到该服务器上的,因为他并不知道服务器已关,而设置down后,Nginx则不会再发到该服务器上了,避免造成无用的请求浪费。
4 q0 S% C8 k: v, @3 U+ n3 D( I- k2 I9 ^; j- \; a
- E4 V. g9 B8 l2 \
% [' q; m9 S' e; M$ P8 ~! `
max_fails:        达到指定次数后认为服务器挂掉- L. Y7 w" x/ }* c  U! L/ q

2 n) }4 B0 P5 u* g9 o0 O; C fail_timeout:挂掉多久后再次测试是否已经挂掉
, R0 K# Y/ y1 k7 a/ q
! _% {! `6 ~0 U% T5 x& a1 ?配置命令/ s, |5 r8 N/ @2 g
2 Y* A1 }# a, N
server 192.168.1.66 max_fails=2 fail_timeout=60s;' u$ E& c4 @! j# C& o
1 F  X7 L8 l2 G* k4 E8 E; F0 c
后记" p2 X& `% C" L, e
我们知道,服务器是会存储用户的session的,那么,如果按照上文所说的,比如fair策略,每次Nginx会根据后端服务器群的能力把请求分发出去,那假如第一次时分在了A,那么我把数据存储到了A服务器上,第二次时,刚好被分配到了B服务器上,那么问题来了,我的session不就不见了?(这就是我们在访问部分网站时有时我们的登录状态会不见)当然了,你可能 会说,ip_hash策略不就可以避免这一点吗?没错,这确实是一个解决方法,那除了ip_hash呢?其他策略下又当如何呢?下篇博客将会讲到负载均衡下如何对session进行处理。. o9 d  p" e6 t9 n

7 L: p: y* k! }! J. _+ E( E$ E6 i- X( M  L# t+ I

  x- e% }9 V  _1 ^
' T! \+ h- M" j$ ^+ e1 f- ~; m: T! _" j( o
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享分享 支持支持 反对反对
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

GMT+8, 2024-4-26 20:33 , Processed in 0.121155 second(s), 22 queries .

Copyright © 2001-2024 Powered by cncml! X3.2. Theme By cncml!