多核CPU下基于PFRING和设备轮询机制的高性能包捕获技术研究.ppt
《多核CPU下基于PFRING和设备轮询机制的高性能包捕获技术研究.ppt》由会员分享,可在线阅读,更多相关《多核CPU下基于PFRING和设备轮询机制的高性能包捕获技术研究.ppt(52页珍藏版)》请在三一办公上搜索。
1、多核CPU下基于PF_RING和设备轮询机制的高性能包捕获技术研究,中心:北京分公司部门:研发部姓名:齐战胜,1,内容提要,自我介绍技术背景理论知识解决方案参考资料,2,1 自我介绍,齐战胜,研发部,北京分公司,软件研发工程师主要做协议分析、还原。参与的项目有抽查工具、NF-7800、NF-9300、NF-9600等。为了解决NF-7800的千兆抓包问题,开始研究Linux下高性能抓包的解决方法。,3,2 技术背景,被动数据捕获技术在网络安全领域有着极其丰富的应用。如IDS(入侵检测系统)、防火墙以及一些部署在网络出口的互联网内容分析系统等。随着网络带宽的增加,网络传输速率的提高,传统的数据包
2、捕获技术越来越不能满足要求。本文从Linux/Unix平台下的Libpcap网络数据包捕获函数库入手,研究Linux/Unix平台下高性能的数据包捕获解决方案。,4,3 理论知识,Libpcap简介1)Libpcap简介2)Libpcap工作机制3)Libpcap抓包性能分析,NAPI技术简介1)NAPI技术简介2)NAPI工作机制3)NAPI的性能分析,5,3.1 Libpcap简介,3.1.1 Libpcap简介 Libpcap是 Unix/Linux 平台下的网络数据包捕获的函数库。它是一个独立于系统的用户层包捕获 API 接口,为底层网络监听提供了一个可移植的框架。应用:Sniffer
3、、Wireshark、Snort、Tcpdump等。,6,3.1.1 LibPcap简介,LibPcap特点1)可从以太网、虚拟接口等一个或多个网络接口捕获数据包;2)平台无关性;3)具有基于BPF的数据包过滤特性。完善了系统的数据包过滤体系。,7,3.1.2 Libpcap工作机制,Libpcap组成Libpcap主要由两部分组成:网络分接头(Network Tap)和数据过滤器(Packet Filter)。网络分接头从网络设备驱动程序中收集数据拷贝,数据过滤器决定是否接受该数据包。,8,3.1.2 Libpcap工作机制,Libpcap捕包流程libpcap的包捕获机制就是在数据链路层加
4、一个旁路处理。当一个数据包到达网络接口时,libpcap首先利用已经创建的Socket从链路层驱动程序中获得该数据包的拷贝,再通过Tap函数将数据包发给BPF过滤器。BPF过滤器根据用户已经定义好的过滤规则对数据包进行逐一匹配,匹配成功则放入内核缓冲区(一次拷贝),并传递给用户缓冲区(又一次拷贝),匹配失败则直接丢弃。如果没有设置过滤规则,所有数据包都将放入内核缓冲区,并传递给用户层缓冲区。,9,3.1.2 Libpcap工作机制,程序框架/*第一步:查找可以捕获数据包的设备*/device=pcap_lookupdev(errbuf);/*第二步:创建捕获句柄,准备进行捕获*/p=pcap_
5、open_live(device,8000,1,500,errbuf);/*第三步:如果用户设置了过滤条件,则编译和安装过滤代码*/pcap_compile(p,/*第五步:对捕获的数据进行类型转换,转化成以太数据包类型*/eth=(struct libnet_ethernet_hdr*)ptr;/*第六步:对以太头部进行分析,判断所包含的数据包类型,做进一步的处理*/if(eth-ether_type=ntohs(ETHERTYPE_IP)if(eth-ether_type=ntohs(ETHERTYPE_ARP)/*最后一步:关闭捕获句柄,一个简单技巧是在程序初始化时增加信号处理函数,以便
6、在程序退出前执行本条代码*/pcap_close(p);,10,3.1.3 Libpcap抓包性能分析,11,3.1.4 Libpcap抓包性能分析,高速复杂网络环境下libpcap丢包的原因主要有以下两个方面:1)Cpu处于频繁中断状态,造成接收数据包效率低下。我们可以假想一个场景,我们使用标准的 100M 网卡,可能实际达到的接收速率为 80MBits/s,而此时数据包最大长度为 1500Bytes,则每秒产生的中断数目为:80M bits/s/(8 Bits/Byte*1500 Byte)=6667 个中断/s。数据包最短长度为46Bytes,则每秒产生的中断数目为:80M bits/s
7、/(8 Bits/Byte*46 Byte)=217391 个中断/s。每秒 6667到217391个中断,对于系统是个很大的压力。2)数据包被多次拷贝,浪费了大量时间和资源。从网卡驱动到内核,再从内核到用户空间。,12,3.2 NAPI技术简介,3.2.1 NAPI技术简介NAPI(New API)是 Linux 上采用的一种提高网络处理效率的技术,它的核心概念就是不采用中断的方式读取数据,而代之以首先采用中断唤醒数据接收的服务程序,然后 POLL 的方法来轮询数据。,13,3.2.2 NAPI的工作机制,经过分析,发现在复杂网络环境中,丢包率上升的原因是在捕包过程中,CPU一直处于接收中断
8、状态,而没有把时间用于处理数据包的过程中来,也就是进入了系统中断活锁状态。利用NAPI技术的设备轮询机制可以成功解决这个问题,NAPI机制的具体特点如下:(1)当网卡接收到一个数据包,便产生一个中断信号给系统;(2)系统进行如下操作:关闭网卡中断(只是屏蔽了中断信号,网卡仍然可以接收数据包到缓冲队列);激活轮询进程,对该网卡进行轮询(处理缓冲队列);打开网卡中断(解除屏蔽中断信号)。,14,3.2.2 NAPI的工作机制,15,3.2.2 NAPI的工作机制,使用NAPI的先决条件1)网卡设备有DMA(Direct Memory Access)硬件,要支持 DMA 的环形输入队列(也就是 ri
9、ng_dma)。2)在发送/接收数据包产生中断的时候有能力关断 NIC 中断的事件处理,并且在关断 NIC 以后,并不影响数据包接收到网络设备的环形缓冲区(以下简称 rx-ring)处理队列中。3)有防止NIC队列中排队的数据包冲突的能力。,16,3.2.3 NAPI的性能分析,优点 NAPI技术的使用减少了中断的数目,让整个操作系统不必花费太多的时间在中断现场的保护和恢复上,以便把赢得的时间用来在我网络层上的处理数据的传输,确实大幅度增强了数据包捕获能力和系统响应速度。,17,3.2.3 NAPI的性能分析,缺点NAPI 存在一些比较严重的缺陷:1)对于上层的应用程序而言,系统不能在每个数据
10、包接收到的时候都可以及时地去处理它,而且随着传输速度增加,累计的数据包将会耗费大量的内存,经过实验表明在 Linux 平台上这个问题会比在 FreeBSD 上要严重一些;2)另外一个问题是对于大的数据包处理比较困难,原因是大的数据包传送到网络层上的时候耗费的时间比短数据包长很多(即使是采用 DMA 方式),所以正如前面所说的那样,NAPI 技术适用于对高速率的短长度数据包的处理。,18,4 解决方案,PF_RING解决方案PF_RING的TNAPI的改进方案PF_RING的DNA的改进方案PF_RING的安装使用,19,4.1 PF_RING解决方案,4.1.1 PF_RING简介PF_RIN
11、G是Luca研究出来的基于Linux内核级的高效数据包捕获技术。PF_RING可以把从一个网络接口抓到的数据包分发到多个cpu核心或者线程中,以提高数据包处理能力。,20,4.2 PF_RING工作机制,在大数据包的网络环境下,设备轮询机制表现出了较高的捕包能力,但是在小包大流量的网络环境下,设备轮询机制虽然比Libpcap的表现好了很多,但依然难以达到让人满意的程度。经过进一步分析,在数据包捕获的过程中,CPU的多数时间都被用在把网卡接收到的数据包经过内核的数据结构队列发送到用户空间的过程中。也就是说是从网卡到内核,再从内核到用户空间,这两个步骤,花去了大量CPU时间,而没有其他时间用来进行
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 多核 CPU 基于 PFRING 设备 机制 性能 捕获 技术研究
链接地址:https://www.31ppt.com/p-2965313.html