Nginx的负载均衡是基于反向代理实现的,因此,本文先讨论什么是反向代理,再在这个的基础上讨论负载均衡以及负载均衡时应该注意哪些策略。 反向代理:如下图所示, 0 J# Z# r5 D. h/ F9 O0 ?1 K
↓-----Nginx将结果返回给浏览器---丨 对Tomcat来说,只知道服务对象是Nginx服务器 浏览器 -发起对该域的访问请求-> Nginx --------------Nginx将请求来转发给Tomcat服务器----> Tomcat... 丨-对Tomcat来说,只对nginx负责,将结果返回给Nginx服务器---↑
1 x/ x9 \1 H6 n/ M) m% R3 O从图中,我们可以知道,对于浏览器来说,他会发一个http://www.a.com/uri请求到Nginx服务器,对于他来说,他认为数据就是从http://www.a.com/uri域中返回的,事实上,当http://www.a.com/uri到达Nginx服务器后,Nginx服务器会将其转发给http://www.b.com/uri,从http://www.b.com/uri域中取得数据并将其返回给浏览器,这个步骤浏览器是不知道的,也就是说,浏览器并不知道http://www.b.com/uri该域的存在,同理,http://www.b.com/uri所在的域(图中的Tomcat)也并不知道浏览器的存在,他也只对Nginx负责。Nginx的这么一个过程便称为反向代理。! }& z, R3 W2 q3 Z$ u5 `8 v* }
8 ] X' q/ v9 l& s* w# T T2 o
那么,Nginx服务器是如何实现这一步的呢,事实上也很简单,只需要在location中做一下简单的配置即可,命令大概如下图所示:(配置完命令记得reload重新加载才能生效)
, e L$ v& n: X: \
' S/ L" K3 h, p! ~/ g7 b. z* L
( Z8 g1 S6 Z: v8 o0 d+ k0 p) x- worker_processes 1; G# s: y0 P! E$ w: E
- events{
复制代码
6 o- ` \& o6 [+ v; p: N% |# ^1 e
2 H! e( z6 J9 q$ a重点在于location处,这样的配置代表的是,所有来自浏览器的请求,在Nginx收到之后,都会代理到http://192.168.1.62:8080所在的地方
* A; c) }, e3 } _2 i) q9 c' k& N. ]) O( u' u3 W
比如,我浏览器上发起http://192.168.1.61/a/index.html;Nginx收到之后,将会发出http:// 192.168.1.62:8080/a/index.html这么一个请求到所连接的服务器上,如上图的Tomcat。
) L6 N# s$ O5 ~. n5 s# @) g
. x* K7 H, i6 {/ q! m
) b7 _4 X7 u0 a$ u接下来我们做这样一个假设,假如后端连接着几台。几十台服务器呢,这个时候Nginx也是做同样的代理吗,答案是肯定的。图示如下:那么,在这么多台服务器上,Nginx的转发又是基于怎样的策略呢?这个时候就涉及在负载均衡了,说白了就是,应该怎样的分发,才能做到资源的最大限度的利用?2 r8 M$ N8 X) e$ ]0 I9 f
( v. C$ C! T. {& _+ Q! o0 w4 x- w, B* V4 }# H/ l; V$ l
# q; K* \+ L; Y0 }% D+ D' D- v Q; N" q. X) Z
负载均衡策略( 我们这里假设三台服务器的IP地址分别为 http:// 192.168.1.62:8080 http:// 192.168.1.63:8080 http:// 192.168.1.64:8080 ) 1. 平均轮询配置如下图:
+ r0 H( f/ e9 R, i; a; ~- _0 v0 Y
7 l. \/ m& [ P ~. J7 Z, n) N! N, I3 A' X2 D$ r# r4 l+ b) L
这里我们把后台所有的服务器放入upstream中,并在代理中进行引用。
. ^/ n5 ?6 z) d) N" L 2. 加权轮询,使用weight参数设置,配置如下
* J( q5 j0 F) t9 Y0 L4 @2 {$ t, Z
# V2 A* [8 h& D% h* j3. ip_hash策略
' s" x q" k/ ~$ z. t# g(根据用户的IP地址进行hash运算,只要是同个用户发的请求,就会被永远地转发在某台服务器上,比如张三发的请求第一次时是由Tomcat1返回的,李四的是有Tomcat2返回的,那么,以后张三的所有请求,都有由Tomcat1返回,这就是ip_hash策略),配置如下:
. S& z9 y$ O: J/ z/ o 其他地方保持不变,在upstreaem中如下设置:$ r% c, w2 m$ D4 N3 w
" [' z, A$ h0 J4 [$ D! a$ F
( ?' @8 N0 d- U
; I! Q* |9 r. n8 x8 q6 U. x" T0 f
! A$ ?" @4 b$ m
4. fair策略6 V: { n9 n# j9 z
(动态weight策略,我们的加权轮询是显式指定weight的,而fair策略是根据服务器的响应能力进行动态指定的,而意义上讲,我觉得是更为智能化的解决方法,不过这里要记住一点,fair策略是一个第三方策略)
# I% q( r2 B/ V+ U9 C- f5 I( ^4 W5. url_hash策略
' a- }0 [' S; R" g
- w7 z) k# J' t6 n% ?2 l E(类似于ip,只不过绑定的值是url,这个也是第三方策略)1 X4 T) v- w1 @. g/ G
fair策略与url_hash策略的配置与ip_hash策略的类似,直接把upstream tomcats 中的ip_hash替换为fair和url_hash即可,不过这里需要注意的是fair和url_hash都是第三方扩展,因此需要先安装第三方扩展模块,直接百度搜索nginx-upstream-fair-master.zip与upstream-url-hash -master.zip;解压安装使用make&&make install重新编译源文件即可/ {4 s- K8 ~1 D) f9 l
9 H. I% P6 a4 Z6 E
) v1 L$ }5 I( b2 j, ^
$ f* R1 d+ J. a( c
url_hash策略的用处?
; s* |1 t; f1 K8 F5 G" B3 i3 |4 ~; j1 M4 B' m) |/ T
url_hash策略比较适合于大型电子商务网站,对于不同的商品便是不同的url,我们可以据此进行负载均衡。4 h3 t |; P/ f- C- e; f9 n8 D7 q
$ `6 W$ Z) W4 J4 H: t5 b& y$ @( ^
原理就是不同的商品形成不同的静态页面,然后服务器根据不同商品的火爆程度,按照命中率高的放在缓存里,加快访问速度,也就是说实现了一个基于缓存的服务器,相当于把有限的缓存最优化起来;3 V; n( {4 q% s8 s' W
0 P( |% n3 b/ h9 Y# p- G
& L+ i" b8 A' W, }8 \! T7 {) M
其他的配置
8 `/ |$ h6 l, v2 o1 @. P备份与停机状态:
! j' v2 k i$ M$ b9 S. g' oserver 192.168.1.64 backup;//备份,不参与转发,只有当所有服务器都挂掉时才参与转发;, A' [4 g" h2 ~& x6 c! w
3 L3 l8 w7 s2 {" I" sserver 192.168.1.65 down;//临时停机维护,不参与任何转发,是关闭状态,4 I4 t2 Z6 z' c5 U) S
7 s% x L1 [+ E8 K1 [down存在的意义在于,有时我们需要对服务器做临时停机更新维护,假如我们直接关闭服务器的话,那么对于Nginx来说,他还是会把请求发到该服务器上的,因为他并不知道服务器已关,而设置down后,Nginx则不会再发到该服务器上了,避免造成无用的请求浪费。
5 T/ ^7 ?& k& P6 d i
4 e! M D* A f# Y/ w" C6 t
8 L5 h$ N5 j: \: A" a; f
& ~$ E- m2 Y6 ^+ g4 \8 vmax_fails: 达到指定次数后认为服务器挂掉- m9 L) l. r7 b# T
3 ], p# n9 d, r+ B- q2 v fail_timeout:挂掉多久后再次测试是否已经挂掉3 o- I5 s, ?* O |/ |. R% T/ z- u
& _7 B7 v# X+ x1 F7 T配置命令
- r+ z# l+ t+ d4 q4 }7 L# ?1 s1 J1 N2 j' W6 c- u# R7 W' T
server 192.168.1.66 max_fails=2 fail_timeout=60s;
: q/ F8 W5 J8 W# o" R3 I& ?7 {9 D# F) L% O5 a8 w+ J0 A4 f' @
后记, V, X( b$ [8 i' t7 g
我们知道,服务器是会存储用户的session的,那么,如果按照上文所说的,比如fair策略,每次Nginx会根据后端服务器群的能力把请求分发出去,那假如第一次时分在了A,那么我把数据存储到了A服务器上,第二次时,刚好被分配到了B服务器上,那么问题来了,我的session不就不见了?(这就是我们在访问部分网站时有时我们的登录状态会不见)当然了,你可能 会说,ip_hash策略不就可以避免这一点吗?没错,这确实是一个解决方法,那除了ip_hash呢?其他策略下又当如何呢?下篇博客将会讲到负载均衡下如何对session进行处理。6 a0 q) [4 D/ v
2 v. H0 A% r' h1 z; G: K& @$ s
- ^" O$ ^6 h1 }* K: A3 @! H6 {( \( f; N- O: R# s' L2 g; g
4 ]9 q2 s0 e) S$ z M S2 S9 _+ ~( V5 q0 L( ?/ w3 v
|