本文共 10814 字,大约阅读时间需要 36 分钟。
1、高可用、负载均衡、可扩展架构的需要背景
2、系统架构3、系统规划及说明4、系统部署及测试5、总结1、高可用、负载均衡、可扩展架构的需要背景
从互联网诞生以来,网站架构随着互联网的快速发展发生着巨大的变化,现今,数据每天都在以爆炸式的增长,大数据、云计算等概念被业内炒得沸沸扬扬,这些前沿技术也在各行各业落地开花。每一种新技术的提出几乎都会或多或少影响着IT的基础架构,面对数据的快速增长、我们急需一套高可用、负载均衡、可扩展的架构来作为支撑。2、系统架构此次博文介绍一套高可用、负载均衡、可扩展的系统架构方案,此方案能满足多数企业需要,并能随着业务的变化进行系统扩展,并尽量避免单点故障,发架设在此系统上的应用能实现365724服务不中断。架构上对应用进行了拆分,如下的架构图:技术分享第一层:负载均衡层,此层是用户的入口,此处的服务器担任director的角色,它把用户的请求根据其调度算法调度到后端的服务器上,能胜任调度器的开源软件有LVS、Haproxy、Nginx、Tengine等,为了避免单点故障,director需要做高可用,在开源软件有Hertbeat、keepalived等;第二层:web应用层,这一层是部署具体web应用的,一般常见的web应用有httpd、php、tomcat、nginxt等,这个层次把具有各种不同的运用划分成一个组,这个组能提供相同的web服务,配合第一层就能实现负载均衡和故障隔离的效果;第三层:数据库层,这里是在提供动态站点时程序与数据库交互数据的地方,在这个层次上一般所用的开源软件有mysql、mariadb、redis、nosql类的数据库等,数据库的设计上也应该考虑到高可用性,负载均衡功能,比如mysql的主从架构,MMM架构,或为了实现读写分离,引入中间件淘宝的amoeba、奇虎360的Atlas;第四层:分布式文件系统层,这个系统主要是为解决web应用数据共享的,当然数据库层中需要持久化的数据也可以放在分分布式文件系统中,开源软件有MooseFs、MgileFS、GlusterFS、FastDFS、GFS、TFS等。如果网站随着用户的增多,web应用服务器和数据库服务器的压力越来越大,那就需要考虑加入缓存层,在web应用程序前端可加入缓存web静态数据的缓存层,开源解决方案有squid、varnish、ats等,ats是yahoo向ASF贡献的一个项目;在数据库层的前端也可加入缓存层,用来缓存web应用程序从数据库中查询的数据,可以把查询的sql语句和结果存放在一个缓存中,一般所用的服务是memcached。3、系统规划及说明此次博文不会把涉及系统部署的全部过程都描述,只是把重要的部分进行记录与讲解。此次测试中所使用的服务器信息整理如下表:技术分享说明:此次用两主机配置成tomcat容器提供jsp程序的运行环境,并且在主机上安装httpd,用反向代理的方式向前端的tengine反向代理提供服务,测试环境中mysql服务器只有规划了一台,在实际生产环境下请用主从架构或MMM等有架构,nod1和nod2主机上还部署了memcached服务,它主要是在为了给tomcat中的session信息作高可用的,此次采用是MSM(Memcached Session Manager)方案实现tomcat中对session的高可用;nod3与nod4利用tengine提供反向代理的功能,keepalived实现tengine的高可用,以避免单点故障。4、系统部署及测试虽说在系统部署上没有严格要求有什么先后顺序,但按照一定的顺序来部署会让工作变得简单有序,这让你对整个项目有了全局观,对项目管理人员来说能更好的协调人员,能更好的掌握控制项目的进度。一般按照以下顺序来部署:a)、部署分布式文件系统,此次博文不讨论这部分;b)、数据库系统部署;c)、应用服务器部署;d)、director部署;当然有些是有交集的,但基本要遵循“先后端再前端”的大原则,即先部署后端的服务应用,再去部署前端面的服务和应用。4.1、分布式文件部署这个可以根据自己熟悉的开源系统来部署。MooseFS是一个不错的选择。部署过程此博文不讨论,略。。。。4.2、数据库及memcached部署请参照前边的博文进行mysql主从架构的部署,此次使用单一的mysql进行测试。mysql主从架构搭建博文地址:数据库搭建好后,创建一个供测试的数据库,并建立一个用户供测试站点的使用。memcached直接用yum源中进行安装(nod1与nod2安装方式相同):[root@nod1 ~]# yum -y install memcached[root@nod1 ~]# service memcached start[root@nod1 ~]# netstat -tnl | grep 11211tcp 0 0 0.0.0.0:11211 0.0.0.0: LISTEN tcp 0 0 :::11211 ::: LISTEN4.3、apache+tomcat部署nod0与nod2上tomcat与httpd的部署相同,只是在配置参数上有点不同。jdk安装配置:[root@nod0 msm]# pwd/root/software/msm[root@nod0 msm]# rpm -ivh jdk-8u45-linux-x64.rpm[root@nod0 msm]# vim /etc/profile.d/java.shJAVA_HOME=/usr/java/jdk1.8.0_45export PATH=$JAVA_HOME/bin:$PATHexport JAVA_HOME[root@nod0 msm]# source /etc/profile.d/java.sh[root@nod0 msm]# java -versionjava version "1.8.0_45"Java(TM) SE Runtime Environment (build 1.8.0_45-b14)Java HotSpot(TM) 64-Bit Server VM (build 25.45-b02, mixed mode)tomcat安装配置:[root@nod0 msm]# tar -xf apache-tomcat-7.0.62.tar.gz -C /usr/local/[root@nod0 local]# ln -sv apache-tomcat-7.0.62 tomcat[root@nod0 local]# vim /etc/profile.d/tomcat.shCATALINA_HOME=/usr/local/tomcatexport PATH=$CATALINA_HOME/bin:$PATHexport CATALINA_HOME[root@nod0 local]# source /etc/profile.d/tomcat.sh[root@nod0 local]# catalina.sh versionUsing CATALINA_BASE: /usr/local/tomcatUsing CATALINA_HOME: /usr/local/tomcatUsing CATALINA_TMPDIR: /usr/local/tomcat/tempUsing JRE_HOME: /usr/java/jdk1.8.0_45Using CLASSPATH: /usr/local/tomcat/bin/bootstrap.jar:/usr/local/tomcat/bin/tomcat-juli.jarServer version: Apache Tomcat/7.0.62Server built: May 7 2015 17:14:55 UTCServer number: 7.0.62.0OS Name: LinuxOS Version: 2.6.32-358.el6.x86_64Architecture: amd64JVM Version: 1.8.0_45-b14JVM Vendor: Oracle Corporation[root@nod0 msm]# vim /etc/rc.d/init.d/tomcat #服务脚本#!/bin/sh#Description: This shell script manage apache tomcat.#Author: zhaochj#Time: 2015-4-21#Version: 1.0case $1 in‘start‘)/usr/local/tomcat/bin/catalina.sh start;;‘stop‘)/usr/local/tomcat/bin/catalina.sh stop;;‘restart‘)/usr/local/tomcat/bin/catalina.sh stopsleep 3/usr/local/tomcat/bin/catalina.sh start;;)echo "Usage:basename $0
{start|stop|restart}"exit 1;;esac[root@nod0 msm]# chmod +x /etc/rc.d/init.d/tomcat至此,jdk与tomcat安装完毕。配置server.xml文件,使其再提供一个<Service>元素,这个不是必须,我只是为了保留原始server.conf的配置,通过增加一个<Service>元素可以让tomcat以一种协议监听在不同的端口,而tomcat实例又只有一个,在配置文件夹的</Service>后增加如下代码:<Service name="Catalina2"><Connector port="8081" protocol="HTTP/1.1"connectionTimeout="20000"redirectPort="8444" /><Engine name="Catalina2" defaultHost="192.168.0.200" jvmRoute="jvm200"><Realm className="org.apache.catalina.realm.LockOutRealm"><!-- This Realm uses the UserDatabase configured in the global JNDIresources under the key "UserDatabase". Any editsthat are performed against this UserDatabase are immediatelyavailable for use by the Realm. --><Realm className="org.apache.catalina.realm.UserDatabaseRealm"resourceName="UserDatabase"/></Realm><Host name="192.168.0.200" appBase="/tomcat/app"unpackWARs="true" autoDeploy="true"><Context path="" docBase="mysite"/><Valve className="org.apache.catalina.valves.AccessLogValve" directory="logs"prefix="nod0_access_log." suffix=".txt"pattern="%h %l %u %t "%r" %s %b" /></Host></Engine></Service>这个<Service>中拥有自己的http连接器,自己的虚拟主机,为了安全可以把默认的连接器注释掉,也可用mod_jk的方式通过ajp13协议与tomcat结合,但我在尝试这样做时,用mod_jk模块能够正常加载,但就是无法发现后端tomcat中的“jvmRoute=jvm200”引擎,所以才用proxy_module中的proxy_http_module的方式与tomcat整合。配置tomcat,使其成为MSM环境:根据tomcat的版本去http://code.google.com/p/memcached-session-manager/wiki/SetupAndConfiguration下载相应的jar包,就是下边的这些包[root@nod0 msm]# ls msm_kryo_serializers/asm-3.2.jar memcached-session-manager-1.8.3.jar msm-kryo-serializer-1.8.3.jarkryo-1.04.jar memcached-session-manager-tc7-1.8.3.jar reflectasm-1.01.jarkryo-serializers-0.11.jar minlog-1.2.jar spymemcached-2.11.1.jar把这些jar包全部拷贝到$CATALINA_HOME/lib目录下[root@nod0 msm]# scp msm_kryo_serializers/ /usr/local/tomcat/lib/再去编辑$CATALINA_HOME/conf/context.xml文件,使其配置memcached的相应功能(这里是以粘性的session的方式配置)[root@nod0 msm]# vim /usr/local/tomcat/conf/context.xml<Context>......<!-- sticky session.--><Manager className="de.javakaffee.web.msm.MemcachedBackupSessionManager"memcachedNodes="memcached1:192.168.0.201:11211,memcached2:192.168.0.202:11211"failoverNodes="memcached1"requestUriIgnorePattern="..(ico|png|gif|jpg|css|js)$"transcoderFactoryClass="de.javakaffee.web.msm.serializer.kryo.KryoTranscoderFactory"/>....</Context>最后把jsp测试程序拷贝到server.xml配置文件中虚拟主机的网站目录“/tomcat/app/mysite”下,这次测试我用的是shopxx这个jsp程序。一切准备好后就可以记动tomcat进行测试站点的安装了。这里我是把tomcat中该配置的都配置完后再启用的tomcat,其实在真正的实施过程中,你应该每修改一次配置文件你都要一边监控着日志输出,再去启用tomcat服务,看启动的过程中是否有警告、错误的信息,不要等你把配置文件修改得过多,一启动服务报错,而报的错又不是很好定位时,那你就只能慢慢排查了,然而,当我更改了一部份配置文件,只要此修改会改变tomcat的运行属性,那我就去启动一下tomcat,看日志是否有问题,没有问题再去做别的修改,这样即使有问题也比较好排查。httpd反向代理tomcat部分:先注释掉中心主机,即在http.conf配置文件中注释掉“DocumentRoot /var/www/html”这一行,再启用一个中心主机配置文件[root@nod0 msm]# vim /etc/httpd/conf.d/virtual.conf <VirtualHost :80>DocumentRoot /tomcat/app/mysiteServerName www.test.comProxyVia OffProxyRequests OffProxyPreserveHost OnProxyPass / ProxyPa***everse / </VirtualHost>经过上边对tomcat与httpd的配置后,打开浏览器直接访问"。在另外的nod2节点上也按照上边的操作进行配置,只是有几点值得注意,如果是以mod_jk的方式反向代理tomcat,那server.xml中的"jvmRoute="jvm200""这里的值可不能与nod0上配置一样,还有这是nod2上jsp网站程序的安装问题,直接把nod0上的已安装过的站点程序拷贝过来就行了,不要再试着去连接数据进行安装(这样是错误的操作)。4.4、Tengine+Keepalived部署taobao对nginx做了众多的改进,在nginx中有些需要打第三方补丁才能实现的功能,而Tengine自身就自带了,还有在nginx的wiki中明明看到能使用的指令,但你配置后,语法检测是无法通过的,如果检查语法无误后,那这个指令只供商业订阅才支持的,只是在官方wiki中没有说明,老版本的文档中有此说明,不过好在都可以通过一些第三方模块实现相应的功能。而Tengine就不样,没有商业订阅这一说,而且Tengine还引进了更好的内存管理机制,即jemalloc,所以你完全可以选择Tengine来代替nginx。要想Tengine支持jemalloc,那先要下载此程序,再编译Tengine时把此程序编译进来即可,下载地址:[root@nod3 tengine]# pwd/root/software/tengine[root@nod3 tengine]# tar -xf jemalloc-3.6.0.tar.bz2 -C /usr/local/ #jemalloc只需要解压出来,不需要安装[root@nod3 tengine]# yum -y install pcre-devel gd-devel #先处理依赖关系[root@nod3 tengine]# tar xf tengine-2.1.0.tar.gz[root@nod3 tengine]# cd tengine-2.1.0[root@nod3 tengine-2.1.0]# ./configure --prefix=/usr/local/tengine \ --sbin-path=/usr/local/tengine/sbin/nginx --conf-path=/etc/tengine/nginx.conf --error-log-path=/var/log/tengine/error.log --http-log-path=/var/log/tengine/access.log --pid-path=/var/run/tengine.pid --lock-path=/var/lock/subsys/tengine --user=nginx --group=nginx --with-file-aio --with-http_ssl_module --with-http_spdy_module --with-http_image_filter_module --with-http_flv_module --with-http_mp4_module --with-http_gunzip_module --with-http_gzip_static_module --with-http_auth_request_module --with-http_image_filter_module=shared --with-http_sub_module=shared --with-http_flv_module=shared --with-http_mp4_module=shared --with-http_rewrite_module=shared --with-http_fastcgi_module=shared --http-client-body-temp-path=/var/tmp/tengine/client --http-proxy-temp-path=/var/tmp/tengine/proxy --http-fastcgi-temp-path=/var/tmp/tengine/fastcgi --http-uwsgi-temp-path=/var/tmp/tengine/uwsgi --with-pcre --dso-path=/usr/local/tengine/dsomodule/dso --dso-tool-path=/usr/local/tengine/dsomodule/dsotool --with-jemalloc --with-jemalloc=/usr/local/jemalloc-3.6.0[root@nod3 tengine-2.1.0]# make[root@nod3 tengine-2.1.0]# make dso_install[root@nod3 tengine-2.1.0]# make install[root@nod3 tengine-2.1.0]# mkdir -pv /var/tmp/tengine/{proxy,fastcgi,uwsgi}[root@nod3 tengine-2.1.0]# /usr/local/tengine/sbin/nginx -vTengine version: Tengine/2.1.0 (nginx/1.6.2)编译配置文件,例其成为反向代理服务器:[root@nod3 tengine-2.1.0]# vim /etc/tengine/nginx.conf #配置文件中确保有以下代码......http { .......upstream be_server1 { consistent_hash $request_uri; server 192.168.0.200:80 id=1000 weight=1;server 192.168.0.202:80 id=1001 weight=1;check interval=3000 rise=2 fall=5 timeout=1000 type=http;check_http_send "HEAD / HTTP/1.0\r\n\r\n";check_keepalive_requests 100;check_http_expect_alive http_2xx http_3xx;}server { listen 80;servern_ame www.test.com;location / { proxypass / ;}location /status { check_status;access_log off;allow 192.168.0.0/24;deny all;}}........}注释:tengine在upstream模块中引进了一致性hash算法来实现对上游服务器的负载均衡,nginx好像只有ip hash,least_conn、sticky cookie三种方式。配置好后就可以启动tengine[root@nod3 tengine-2.1.0]# /usr/local/tengine/sbin/nginx #启动tengine[root@nod3 tengine-2.1.0]# /usr/local/tengine/sbin/nginx -t #测试配置文件[root@nod3 tengine-2.1.0]# /usr/local/tengine/sbin/nginx -s {stop|quit||reopen|reload|}测试通过访问tengine的IP看能否访问到我们在tomcat上部署的网站,还可以打来tengine的状态页面查看上游服务器的状态,如下:技术分享以同样的方法在nod4上完成部署。最后来部署keepalived让tengine具有高可用性:[root@nod3 ~]# yum -y install keepalived #以yum方式安装[root@nod3 ~]# rpm -qa keepalivedkeepalived-1.2.13-5.el6_6.x86_64[root@nod3 ~]# vim /etc/keepalived/keepalived.conf保配置文件中有以下代码,主要是vrrp_instance实例的代码段! Configuration File for keepalivedglobal_defs { notification_email { vrrp_instance VI_1 {
state MASTERinterface eth0virtual_router_id 123priority 180advert_int 1authentication { auth_type PASSauth_pass 1111}virtual_ipaddress { 192.168.0.111}}而nod4中的代码段如下:[root@nod4 keepalived]# vim /etc/keepalived/keepalived.conf! Configuration File for keepalivedglobal_defs { notification_email {转载于:https://blog.51cto.com/lijianmin2008/2054771