欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > PPT文档下载  

    【教学课件】第二章网络实现模型.ppt

    • 资源ID:4879473       资源大小:518KB        全文页数:29页
    • 资源格式: PPT        下载积分:15金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要15金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    【教学课件】第二章网络实现模型.ppt

    第二章 网络实现模型,模型的重要性,网络算法学包含以下几个不同的领域:协议,硬件,体系结构,操作系统,算法。不同领域的专家通过简单的模型进行对话:模型描述了问题的要点,又不涉及不必要的细节最低程度:模型应能定义所需要的术语最好情况:领域外的专家可以根据模型进行设计,并可由领域内的专家对设计进行验证,2.1 协议抽象模型,协议定义了通信实体之间交换的报文和次序,以及在报文发送、接收或收到其它事件后采取的动作。可将协议看成是一个加上了接口和报文格式定义的状态机。协议规范描述状态机如何改变状态,以及如何响应接口调用、消息到达和定时器事件。,常见而耗时的功能(TCP/IP),与数据包收发有关的功能:数据操作:交换,数据拷贝,检查和计算分配资源(如内存、CPU)与协议处理有关的功能:重组数据包查表及修改状态设置定时器调度任务数据包交付给应用:解复用控制切换,重要的性能指标,网络中两个最重要的性能指标:吞吐量:每秒处理的包数(pps)或比特数(bps)延迟:处理一个数据包的时间(典型地为最坏情况)性能测量分为:全局性能测量:如端到端延迟和带宽,使用网络管理工具(如OpenView)进行测量。本地性能测量:如路由器查找速度,使用计算机内部的性能测量工具(如Oprofile,Vtune)测量。本课程关注本地性能。,因特网环境的特点,链路速度已进入Gbps量级:1Gbps很普遍,10Gbps正推广,40Gbps已商用,TCP流量占主导小包:路由器收到的包中大约一半为最小长度(40字节)的包延迟很长:实际来回延迟远远超过光的传输延迟局部性很差:在一个包上执行的计算在未来短时间内重用到另一个包上的可能性很小,网络系统面临的挑战,高速链路+大量小包:包速率很高网络系统线速处理难度大高速链路+大规模并发流:数据局部性很差Cache用不上(命中率低)TCP流占主导+TCP处理开销大:TCP优化很重要,2.2 存储器,寄存器:由一组有序的触发器构成,访问同一个片上寄存器的耗时大约为0.5-1 ns。SRAM:由一组寄存器构成。一般情况下,片上SRAM的访问时间为1-2ns,片外SRAM的访问时间为5-10ns。DRAM:片上DRAM的访存延迟大约为30ns,最快的片外DRAM访存延迟为40-60ns,连续读的延迟约为100ns。,2023/5/21,page-mode DRAM(快页内存):支持以4字节突发模式传送数据,有利于局部性好的数据的快速访问。Interleaved DRAM(交织内存):几个DRAM bank集成到一个内存芯片中,复用数据线和地址线SDRAM(2个bank),RDRAM(16个bank),2023/5/21,举例:流水化的流ID查找,应用需求:路由器统计每个流发送的包数每个流用五元组(共96位)进行描述线速处理要求:对于2.5Gbps链路和40字节最小数据包,流ID的查找时间不能超过128ns。(40*8/2.5Gb/s=128ns)问题规模:核心路由器中大约有100万条并发的流,2023/5/21,设计方案考虑,需要设计一个数据结构:每个流维护一个计数器支持插入和查找两种操作,查找为针对流ID的精确匹配要求限制最坏情况下的查找时间 使用平衡二叉树在SRAM中保存查找树?维护100万条流的状态,需要约14MB空间,代价太高!在普通DRAM中保存查找树?若实现分支因子为2的二叉树,查找一个流需要20次访存;按照访存周期50ns计算,查找时间为1微秒!,2023/5/21,使用RDRAM实现二分查找,使用具有16个bank的RDRAM实现树高为16的二叉树,树中第i层的所有节点存储在bank i中。查找芯片同时对16个数据包(流ID)进行查找,比如:用第1个包的流ID查找bank 1中的根节点,得到bank 2(第二层)中要查找的节点;用第1个包的流ID查找bank 2时,用第2个包的流ID查找bank 1中的根节点;依次类推流水线充满后,每60ns完成一个流ID的查找问题:层次为16的二叉树只能有216=64K个流ID,不能满足问题规模!,2023/5/21,使用RDRAM实现M=3的B-树,RDRAM允许快页模式,可一次读8个32比特的字(256比特)256比特的字可以存放2个96比特的流ID,以及3个20比特的指针构造一棵高度为16、M=3的B-树,可以保存31643,000,000个流ID,2023/5/21,网络存储子系统设计的主要技术,内存交错和流水线:类似的技术也可用于IP查找、包分类和包调度等多个bank可以用多个外部存储来实现宽字并行:使用快页内存或者使用内存字较宽的SRAM组合DRAM和SRAM:SRAM快而贵,DRAM便宜却慢,将这两种技术组合起来可以得到一个最佳的平衡,2023/5/21,2.3 端节点架构,端节点由处理器、存储器、总线和I/O设备组成处理器是一个状态机,以一系列指令和数据作为输入,写输出到I/O设备大部分的处理器状态保存在外部DRAM(主存)中,主存通常用1GB或更大的交织内存实现,访问时间长(如60ns)处理器使用cache来提高速度:Cache为容量相对较小的SRAM,保存最常使用的状态某些SRAM(如L1、L2 cache)位于处理器芯片中更多的SRAM(如L3 cache)位于处理器芯片外,2023/5/21,端节点的架构模型,网络应用的吞吐量受限于最慢的总线(通常是I/O总线)。协议处理通常涉及多次数据包拷贝,每个数据包都要穿过总线几次。处理器性能的提高消除了计算瓶颈,但无助于消除数据移动瓶颈。结论:端节点的瓶颈不在计算,而在访存和I/O。,2023/5/21,Cache的使用效果与时空局部性,当指令和数据呈现时间局部性或空间局部性时,cache的使用效果非常好:时间局部性:一个存储位置在短时间内被再次访问空间局部性:一个存储位置被访问后,其邻近位置在短时间内被访问X86处理器利用DRAM的访存特点实现预取:每当读取一个32比特字时,处理器预取连续的128比特到cache中。高速数据包流基本不呈现时间局部性,因此,协议实现时注意提高算法及数据结构的空间局部性非常重要,2023/5/21,提高算法及数据结构的空间局部性,设计紧凑的数据结构,使其能够常驻cache不被换出将随机访问(如链表)变为顺序访问(如数组)对相同/相近位置的操作尽可能放在一起将经常要被一起访问的数据放在连续位置,且与cache行对齐,2.4 操作系统,操作系统是为解决在裸机上编程困难而设计的与裸机打交道最主要的三个难题是:处理中断,管理内存,控制I/O设备为处理这些困难,操作系统提供了不间断计算、无限存储和简单I/O的抽象抽象在提高程序员生产效率的同时,带来了两个代价:实现抽象的机制是有代价的抽象阻碍了程序员对资源的充分利用,2023/5/21,(1)依靠进程实现不间断计算的抽象,操作系统通过进程提供给程序员不间断、顺序计算的抽象进程抽象通过三个机制实现:上下文切换,调度,保护进程抽象带来的开销:上下文切换(状态保存及恢复),调度器运行,API,2023/5/21,进程的三种类型,中断处理程序:仅用于处理紧急请求的短小程序只使用少量的状态(如几个寄存器),开销(上下文)最小线程:轻量级的进程,只需要较少的状态(较小的上下文)同一个进程中的线程切换比进程切换开销小(内存不需要重新映射)用户进程:使用计算机的全部状态,比如内存和寄存器(上下文最大)用户进程之间切换的代价很高(重新映射内存),2023/5/21,举例:接收端活锁(Receiver Livelock),计算机将所有的时间用来处理数据包中断,却因为没有时间运行应用程序,而最终将数据包丢弃。,2023/5/21,进程启动时间,在Pentiem IV计算机上,一个空的中断调用,中断延迟大约为2微秒。在一个具有两个进程的Linux机器上,进程上下文切换约用时10微秒;Windows和Solaris用时更多。在1Gbps以太网链路上,10微秒时间内可能会有接近20个最小长度的包到来。端节点上网络程序的延迟和吞吐量和进程启动时间有关。,2023/5/21,(2)依靠虚拟内存实现无限存储的抽象,在虚拟内存系统中,程序员使用的内存抽象是一个线性存储空间,存储空间大小只受指令地址长度的限制。现代计算机系统使用页表映射和请求调页两个机制实现虚拟内存抽象:一个虚拟页为4KB,用虚拟地址的高20位构成页号,低12位构成页内偏移量。物理内存划分为物理页,每个物理页的大小为4KB。虚拟页到物理页的映射关系被保存到一个页表中,以虚拟页号作为索引。(页表映射)虚拟页也可以不在内存中,当需要时从磁盘读入到内存的一个物理页中。(请求调页),2023/5/21,基于页的内存映射,2023/5/21,虚拟内存抽象带来的开销,到虚拟地址X的一个读操作可能需要访问主存两次:第一次访问页表,将虚拟地址X转换成物理地址P第二次访问物理地址P现代处理器将最近使用过的地址映射缓存在TLB中,实际的地址转换由MMU硬件完成。极其影响内存访问速度的两个因素:TLB miss调页访存瓶颈在端节点中表现最为突出,2023/5/21,(3)通过系统调用实现简单I/O的抽象,操作系统提供给程序员的设备抽象是可以进行读写的一块内存,2023/5/21,设备访问和系统调用,将一个简单的I/O接口调用映射到对设备进行实际操作的代码是设备驱动程序为安全考虑,设备驱动程序运行在内核空间,应用程序必须通过系统调用来访问设备系统调用是函数调用的一种保护形式,它使处理器进入内核模式,从而可以执行I/O操作系统调用比函数调用的开销大,在现代计算机上,一个简单的系统调用可能需要几个微秒。,2023/5/21,2.5 小结,本章介绍了影响网络系统性能的四个抽象等级:硬件:如存储器、硬件处理逻辑体系结构:如总线速度、cache容量操作系统:如进程切换、虚拟内存、系统调用协议:如查表、定时器,2023/5/21,

    注意事项

    本文(【教学课件】第二章网络实现模型.ppt)为本站会员(小飞机)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开