负载均衡发展趋势与部署.docx
《负载均衡发展趋势与部署.docx》由会员分享,可在线阅读,更多相关《负载均衡发展趋势与部署.docx(45页珍藏版)》请在三一办公上搜索。
1、F5 BIG-IP LTM 部署规范参考一、负载均衡技术的发展在门户网站设计中,如何容许大量用户同时访问,能够使网站有大量吞吐量是一个关键点。甚至有许多博客,当流量逐步增加时,为了使网站有大吞吐量,都会使用负载均衡这样低成本的技术,下面简单介绍一下常用负载均衡技术。1:软件负载均衡技术该技术适用于一些中小型网站系统,可以满足一般的均衡负载需求。软件负载均衡技术是在一个或多个交互的网络系统中的服务器上安装一个或多个相应的负载均衡软件来实现的一种均衡负载技术。软件可以很方便的安装在服务器上,并且实现一定的均衡负载功能。软件负载均衡技术配置简单、操作也方便,最重要的是成本很低。2:硬件负载均衡技术由
2、于硬件负载均衡技术需要额外的增加负载均衡器,成本比较高,所以适用于流量高的大型网站系统。硬件负载均衡技术是在多台服务器间安装相应的负载均衡设备,也就是负载均衡器来完成均衡负载技术,与软件负载均衡技术相比,能达到更好的负载均衡效果。3:本地负载均衡技术本地负载均衡技术是对本地服务器群进行负载均衡处理。该技术通过对服务器进行性能优化,使流量能够平均分配在服务器群中的各个服务器上,本地负载均衡技术不需要购买昂贵的服务器或优化现有的网络结构。4:全局负载均衡技术全局负载均衡技术适用于拥有多个低于的服务器集群的大型网站系统。全局负载均衡技术是对分布在全国各个地区的多个服务器进行负载均衡处理,该技术可以通
3、过对访问用户的IP地理位置判定,自动转向地域最近点。很多大型网站都使用的这种技术。5:链路集合负载均衡技术链路集合负载均衡技术是将网络系统中的多条物理链路,当作单一的聚合逻辑链路来使用,使网站系统中的数据流量由聚合逻辑链路中所有的物理链路共同承担。这种技术可以在不改变现有的线路结构,不增加现有带宽的基础上大大提高网络数据吞吐量,节约成本。总结,负载均衡主要有两种常用技术。第一种是将大量的同时发送的数据流在多个节点上进行处理。第二种是将单一负载的大量分担在多个节点上进行并行处理,并且在所有节点都完成处理后将结果合并起来输出给用户。而现在,负载均衡技术已经不是什么新鲜技术,一般维护过服务器,或有两
4、台以上的服务器都可以使用负载均衡技术二、负载均衡厂商1:思科已停止ACE的研发思科已经停止进一步开发ACE负载均衡产品,其主要包括两种设备标准机架式设备,以及板卡式设备,但仍将继续销售该产品并提供支持。这表明思科将放弃该市场,而对于应用交付的厂商来说这无疑是个好消息,目前作为该领域的重要厂商F5已经采取以旧换新计划。应用交付和网络是两个独立的领域,应用交付厂商F5关注网络第7层,而思科关注传统的2-4层,随着互联网的发展,单独的负载均衡器已经不能够应对巨大的流量和网络攻击,而且如果以网络的方式进行应用实施和安装,未来客户使用起来将会比较麻烦。那么为什么还会有人选择思科的ACE产品呢?其一:选择
5、思科ACE的客户专注于企业,较为保守,它们关注供应商的可靠性,需要一流的支持。其二,购买思科一站式解决方案有利于网络设施便利和后期支持。 Gartner在2009年认为“负载均衡已死”,到了2012这个预测成真,此次思科宣布停止研发ACE产品,之前另一个网络巨头Juniper也停止了此类产品的研发,更是印证了这个判断,这也意味着此后应用交付的市场将会变得更火火热。负载均衡是应用交付的一部分,很早以前,F5就从负载均衡转向应用交付。其BIG-IP产品覆盖范围广泛,且都具有高速缓存和压缩功能,iRules、iControl和完整代理架构提供良好的灵活性。能够让企业实现盈利的速度更快,管理成本更低。
6、2:F5换购计划换购的意义不是用负载均衡替换负载均衡产品,对此,F5 Networks中国区技术总监吴静涛表示F5是把应用交付的架构导入到负载均衡的架构,为用户做一个应用交付的架构,为未来长远的数据中心扩容和业务做打算。当然,能够思科ACE的厂商不止一家,市场上厂商之间的互相攻击也是常见战术,他说:“应用交付产品性能不在于单一性能指标,更重要的是所有技术整合在一起的表现。”3:F5集成的应用交付网络(ADN)F5将在2013年6月30日前提供针对Cisco负载平衡产品的双倍普通以旧换新积分(最高达$12,000),能够进行以旧换新的Cisco 型号包括:ACE 模块、ACE 设备、CSS、CS
7、M 和GSS。此日期前,F5 合作伙伴还可通过所有Cisco ACE 以旧换新交易注册享受5% 额外折扣(仅限合作伙伴发起的机会),F5 新的Cisco ACE迁移服务帮助客户有效地从ACE迁移至BIG-IP,以旧换新计划的客户将享受到标准迁移服务产品的25%折扣三、负载均衡的应用1:服务器负载均衡负载均衡建立在现有网络结构之上,扩展了网络设备和服务器的带宽、增加了吞吐量,同时提升了网络的数据处理能力、灵活性和可用性,具有低成本且有效透明的优点。负载均衡在应用模式上可分为服务器负载均衡和链路负载均衡(含全局负载均衡),本次先着重谈谈服务器负载均衡。长期以来,负载均衡产品给大家的印象就是部署在庞
8、大的服务器群前端,售价昂贵,是比较神秘的产品,如同旧时王谢堂前燕,仅是大户人家的网络才会需要。而事实上,负载均衡产品对于中小型网络业务平台同样适用,尤其是当前负载均衡产品已经可以提供“飞入寻常百姓家”的售价,所以如果用户的业务系统采用了大量的服务器双机(每种子业务都采用服务器双机),随着业务量的激增需要搭建一个弹性平台来满足业务量的变化,此时应考虑选择负载均衡产品来优化其业务平台。负载均衡产品的实现与形态负载均衡,在业界又称之为4、7层交换机。二层交换机靠Mac地址表来转发报文,三层交换机是对目的IP进行“一次路由,多次转发”,负载均衡则是根据数据流的IP+端口甚至需要解析数据流Payload
9、来确定转发的目的服务器,如果开启会话保持功能,则可以实现“一次负载均衡分发,多次转发”。传统的负载均衡产品图1 传统负载均衡器内部架构传统的硬件负载均衡产品采用通用处理器(如Intel的x86处理器)+通用的交换芯片架构,通用处理器CPU实现L4、L7的分发处理;交换芯片(ASIC)完成二三层转发并对外提供物理接口,不参与L4、L7业务。它的产品形态是独立的盒式设备。传统负载均衡一般采用旁路组网方式部署在交换或路由设备上,通过交换或路由设备进行引流分发并回送至交换或路由设备上,报文所流经的路径是:网络设备负载均衡器的交换芯片负载均衡器的处理器负载均衡器的交换芯片网络设备。2. 模块化的负载均衡
10、产品当前市场除了传统盒式的负载均衡产品外,也有另外一种形态的负载均衡产品,它以业务模块的形式将负载均衡的业务处理部分集成到交换机设备中,通常被成为LB(Load Balance)业务模块或插卡(如图2所示),集成了LB的交换机又被称为负载均衡交换机。图2 负载均衡交换机模块化产品有以下特点:共享网络特性。以H3C SecBlade LB模块为例,由于与网络设备共享了统一的软件平台,天然支持丰富的路由协议如RIP、BGP、OSPF和IPv6等网络特性。一些传统的负载均衡产品是通过License使用上述网络特性。共享硬件器件。负载均衡模块在以插卡方式集成到网络设备上之后,一方面通过复用交换路由的双
11、主控、双电源等器件分享高可靠资源,另一方面还通过复用交换路由的电源系统、交换接口提供更优的性价比。节约机架空间、简化组网。在宝贵的机房空间中,负载均衡模块集成在交换路由设备中,节约机房空间;在组网中,无须外联引流,简化组网和配置维护工作量。对比盒式产品的报文所流经的路径,模块化产品则简化了这个流程,其报文的路径是:网络设备负载均衡模块的处理器网络设备。四、典型的部署场景与方案1. 服务器负载均衡的应用场景如图3所示,通过集成LB板卡的负载均衡交换机,采用物理上的扁平化组网,大大简化组网方案。对于服务器负载均衡部署场景,在数据流处理模式上可以分为NAT模式和DR模式。图3 负载均衡应用场景2.
12、负载均衡的NAT组网模式该组网模式下负载均衡使用NAT技术对请求、响应报文做两次地址转换,因此被称为NAT方式(如图4所示)。技术优势:组网灵活,对服务器没有额外要求,不需要修改服务器配置,适用于各种组网 。图4 负载均衡NAT组网模式图5 负载均衡DR组网模式五、 应用价值分析1. 提升业务系统的伸缩性当业务系统服务器无法支撑当前的业务量时,用户可以选择更换更高性能的服务器,但更为合理的做法是通过在既有业务服务器基础上通过集群或硬件负载均衡,以增量的方式增加服务器,而外部用户仅感受到是一台高性能服务器在提供服务,从而极大提升业务系统的伸缩性。单个业务系统:某个业务系统可以方便地新增业务服务器
13、满足业务量增长,通过硬件负载均衡设备,无须为每个节点购买商业集群软件的License、无须在每台服务器上配置集群探测信息,只需在负载均衡上简单的添加一台服务器的实IP地址即可。新增业务系统:对于新增业务系统,可以在硬件负载均衡设备添加一个虚服务,配置好实体服务器的负载均衡调度算法、实体服务器健康检测算法即可,不仅可以节省双机或集群软件的投资,同时也简化了业务配置维护的工作量。但业务量增长也可能导致负载均衡设备本身成为业务系统的瓶颈,因此负载均衡设备自身也应具备适用业务量变化的伸缩性。在这一要求上,模块化产品和盒式产品表现不尽相同。图6所示为通过在交换机中根据业务量灵活部署多个LB业务板卡方式实
14、现性能的平滑扩容和线性叠加。以H3C为例,一台交换机设备允许集成多个LB业务板卡,多个LB模块又可以虚拟成一台负载均衡设备来使用,服务器网关设置在交换机上,每个LB业务模块均对外提供统一的VIP。客户端流量访问业务时,交换机通过等价路由方式将流量均分至LB业务模块,每个LB模块对数据流进行一次源IP的NAT处理(每个LB的NAT地址池均不重合),保证服务器响应报文能返回到同一块LB业务板处理。图6 多LB业务模块n:1虚拟化详解独立的盒式负载均衡设备,也可通过以上机理实现,但需要提前规划好交换机物理接口数量,且负载均衡器均不响应针对VIP的ARP请求,以避免出现VIP的ARP地址表冲突问题。2
15、. 提升业务平台的可靠性在一些中小型业务系统中,关键的业务系统一般采用服务器双机来保障核心业务的可靠性,如果这两台服务器不安装双机热备软件,那么单纯靠网络设备通过物理端口的up/down状态来探测服务器故障状态是远不够的。因为无法发现服务器网口UP但内部业务进程挂死的情况,最后只能通过用户投诉发现,这对于核心业务系统而言是无法容忍的。通过部署负载均衡为服务器双机提供可靠性是一种较好的方式。一是负载均衡通过探测服务器业务层面的健康检测,确保用户的业务请求分发到健康的服务器;二是方便后续业务系统扩容;三是避免了设备利用率低下的问题。服务器部署双机软件时,两台服务器是工作主/备模式,服务器利用率仅为
16、50%,而负载均衡设备则通过负载均衡分发算法,将两台服务器均利用起来,相当于服务器双机工作在主/主模式,利用率达到100%。可以说在业务系统规模较小时部署负载均衡设备是一种具有前瞻性的组网方案,H3C公司自身的数据中心所有的业务系统均部署了负载均衡设备,为大量的业务双机服务器提供了可靠性保障。3. 提升业务系统的响应速度通过硬件负载均衡设备提升业务系统的响应速度源自以下两个方面:通过服务器调度分发算法负载均衡可以通过“最小响应时间”、“最低CPU、内存利用率”等方式,将用户请求数据流分发到响应最快的服务器,从而提升业务系统的响应时间。通过应用优化技术业务系统是丰富多样的,例如网上购物、网上报税
17、和网上银行等业务系统会采用Https应用,并采用SSL加密方式来提供服务,如果让服务器参与大量的业务数据SSL加解密,其性能会受到极大影响,因此可将SSL加解密下移至负载均衡设备上来实现。另外可采用TCP连接服用技术,将大量用户的百万级的TCP连接终结在负载均衡设备上,负载均衡设备与服务器之间则保持一定数量的常连接,这样可以大大减轻服务器在网络连接上的资源消耗。其他技术如WebCache、代理压缩等技术手段也是提供特定业务系统响应速度的方式。4. 提升业务系统的安全性传统的负载均衡设备中集成防火墙、IPS等功能,但这些安全功能是通过负载均衡CPU来实现。开启防火墙、IPS功能之后,通常会严重影
18、响负载均衡自身的性能,针对这种情况,一些厂商是通过设置高额的License来限制用户使用防火墙、IPS功能,H3C的做法是在负载均衡交换机中集成专业的FW、IPS硬件业务模块来保护用户的业务系统免遭27层的攻击,也就是将安全功能交由另外的安全业务板卡与交换机集成去保障。图7所示为在业务系统前端,负载均衡交换机中部署了多种专业的安全板卡以提供一体化的应用交付平台。图7 X-BOX一体化应用交付平台六、结束语负载均衡由早期DNS方式负载均衡模式发展而来,现在其内涵已越来越广,因此业界又采用一个新的用语来总结,即应用交付网络(Application Delivery Networking,简称ADN
19、),范围包含服务器负载均衡、链路负载均衡、全局负载均衡、应用优化、27层安全等等。附:H3C负载均衡产品介绍H3C负载均衡产品面向运营商、门户网站、大中型企业、行业的数据中心,提供完善的服务器负载均衡、链路负载均衡等功能。部署在数据中心的汇聚层或核心层,基于特定的负载均衡算法将客户端对数据中心服务的访问请求合理地分发到数据中心的各台服务器上,以保证数据中心的响应速度和业务连续性。部署在多ISP链路的出口(如电信、网通等),为了提高链路利用率,通过对链路状态的检测,采用对应的调度算法将数据合理、动态的分发到不同链路上。H3C负载均衡产品创新地实现了应用优化、安全与网络的深度融合,具有路由、交换、
20、负载均衡、2-7层安全等功能。负载均衡产品具有高度的弹性伸缩功能,用户可以根据自己的需要灵活选择功能模块,保护用户投资,可以适应各种复杂的组网环境。附:多链路负载均衡负载均衡建立在现有网络结构之上,扩展了网络设备和服务器的带宽、增加了吞吐量,同时提升了网络的数据处理能力、灵活性和可用性,具有低成本且有效透明的优点。负载均衡在应用模式上可分为服务器负载均衡和链路负载均衡(含全局负载均衡),继上期介绍服务器负载均衡之后,本文重点谈链路负载均衡。1 多链路部署后引发的问题许多企业都意识到单条互联网出口链路带来的问题:链路一旦中断,内部员工将无法访问互联网,分支机构VPN中断,网站邮箱均无法对外服务。
21、因此许多企业会部署多条运营商链路来解决单出口的不可靠。在单链路时代,出口一般会部署路由器或防火墙,部署多链路后,将多链路直接连接到路由器或防火墙上是否可以?这种组网情况,一般在路由器或防火墙上将内网用户outbound(注:outbound一般指的是内网访问互联网,inbound指的是互联网用户访问内网的业务系统,下同。)流量通过策略路由方式发送到指定链路,这是种静态的方式,如在高校网络出口,ISP1分配给教师用户使用,ISP2分配给学生使用,到晚上学生上网高峰期ISP2成为流量瓶颈时,ISP1却是空闲的。出口的设备在outbound方向,要将内部访问外网报文送到健康可用的链路上,健康可用不仅
22、仅是端口UP或下一条路由可达,还需要对指定的IP地址做动态探测。当部署多条链路后,对外提供的业务系统(如网站等)会对不同的ISP发布不同的公网IP地址。当外网用户首次访问网站系统时,如何响应外部用户的DNS域名请求,也是路由器或防火墙遇到的新问题。当外网用户访问内部的业务系统时,需保证响应报文从原路返回,否则可能会出现访问速度奇慢甚至无法访问。以上这些是当前出口路由器或防火墙遇到的新问题,可通过出口链路负载均衡来解决上述问题。2 链路负载均衡核心功能介绍1) 出口链路健康探测所谓健康检测,就是负载均衡设备定期对链路服务状态进行探测,收集相应信息,及时隔离工作异常的链路。健康检测的结果除标识链路
23、能否工作外,还可以统计出链路的响应时间,作为选择链路的依据。负载均衡技术支持丰富的健康性检测方法,可以有效地探测和检查链路的运行状态。ICMP方式:向链路上的节点发送ICMP Echo报文,若收到ICMP Reply,则链路正常。TCP Half Open方式:向链路上节点的某端口发起TCP连接建立请求,若成功建立TCP半开连接,则链路正常。DNS方式:向链路上的DNS服务器发送DNS请求,若收到正确的DNS应答,则链路正常。图1负载均衡链路故障探测功能2) Outbound方向链路负载均衡最理想的outbound链路负载均衡算法是就近性探测,即将将数据流分发到响应最快的出链路上, Outbo
24、und链路负载均衡是以报文的目的地址为目的进行检测,Inbound链路负载均衡是以DNS请求的源地址为目的进行检测。根据检测结果计算出最优链路,并通过最优链路转发业务流量。就近性检测根据以下几个参数进行加权计算,得出链路加权数,并根据链路加权数的大小判断链路的优劣:链路物理带宽:即链路的可用带宽值。链路成本:取决于每条链路的成本值,比如租用联通10M链路每月1万元,租用电信10M链路每月1.5万元,则两条链路的成本比例为2:3,两条链路成本的取值应该满足该比例。链路延迟时间(即RTT):通过链路健康性检测获得。路由跳数(即TTL):通过链路健康性检测获得。ISP表项:负载均衡内置各运营商IP地
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 负载 均衡 发展趋势 部署
链接地址:https://www.31ppt.com/p-1817006.html