数据中心网络TCP协议优化问题研究文献综述

 2021-09-25 01:09

全文总字数:7699字

毕业论文课题相关文献综述

文 献 综 述与互联网一样,当前数据中心网络仍然广泛采用TCP传输数据.但一方面由于数据中心网络应用的特殊性,造成在特定情况下TCP会遭遇性能急剧下降,典型的现象是TCP Incast.另一方面,数据中心网络链路资源比互联网丰富很多,而传统的单路径传输层协议不能很好地利用拓扑中丰富的链路资源,导致网络资源的浪费.此外,数据中心不同的应用可能需要不同的传输协议,为数据中心特定应用定制相应的传输协议,也是近来的研究热点.与此同时,数据中心网络的很多应用都具有典型的组通信模式(如分布式文件存储系统、软件升级等),而组播技术在互联网部署时遭遇的缺乏合理计价机制、安全性等问题在数据中心的集中可控环境中不复存在,因此数据中心也为组播提供了一个很好的应用平台.但数据中心组播的部署也面临新的挑战.目前数据中心网络的设计趋势是使用低端交换机进行网络互联,而用户需求可能导致大量的组播组,超过低端交换机的硬件限制.此外,云计算服务的服务质量需求对组播数据传输的可靠性也提出了较高的要求. 1. TCP Incast 数据中心网络有一种通信模式是一台客户端向多台服务器同时发出数据请求(对应数据中心的典型分布式文件系统场景),这些服务器在收到请求后,会向发出请求的客户端同时返回数据.然而由于数据中心普遍采用低端交换机,这种通信模式会造成交换机的缓冲区溢出,发生丢包,从而导致网络吞吐量急剧下降,这种现象被称作TCP Incast.发生TCP Incast的前提条件包括:①网络具有高带宽、低延时特性,而且交换机的缓存小;②网络中存在同步的多对一流量;③每条TCP连接上的数据流量较小.针对TCP Incast,学术界首先对其导致网络吞吐量下降的原因进行了分析.当交换机缓冲区溢出导致丢包时,TCP通过两种方式进行数据重传,一是通过定时器机制触发超时重传,二是通过接收到重复的ACK报文触发快速重传.传统TCP的重传定时器(RTO)一般不低于20ms,而数据中心网络环境的往返延迟(RTT)一般在微秒数量级,因此一旦发生超时重传,将会导致网络链路长时间处于空闲,从而造成网络吞吐量严重下降.文献均认为丢包导致超时重传、且TCP重传RTO的超时时间与RTT值严重失配是导致TCP Incast的根本原因.文献在此基础上,将通信过程中发生超时重传的类型划分为BHTO(Block Head Time Out)和BTTO(Block Tail Time Out)两类.其中,BHTO一般发生于通信过程的开始阶段,由于整个窗口的数据被丢弃,从而发生超时重传.BTTO一般发生于通信过程的结束阶段,由于最后的3个报文中至少有一个被丢弃,从而造成无法触发快速重传,导致超时重传.近年来学术界提出了若干种方案解决TCP Incast问题.这些方案大致可以分为3类:(1)减少RTO值,使之与RTT匹配;(2)设计新的拥塞控制算法;(3)采用基于编码的传输方案.文献均通过减小发送方RTO定时器时间至微秒级别来减轻TCP Incast对系统性能的影响.由于RTO的值与RTT匹配,即使发生超时重传,发送端也能及时地重传丢失的数据,进行数据恢复,不会造成链路长时间处于空闲状态,从而保证网络吞吐量不会大幅下降.但将RTO值修改为微秒级别往往需要升级操作系统甚至硬件.另外,在光交换网络中,即使微秒级别的RTO对性能的改善也不会太明显. ICTCP和DCTCP通过设计新的拥塞控制算法来解决TCP Incast问题.ICTCP通过实时监测接收方的流量速率来动态调整接收方的接收窗口,从而有效控制发送方的发送速率.ICTCP对接收窗口的调节机制采用与拥塞窗口相同的机制:慢启动和拥塞避免.DCTCP的核心思想是在不影响网络吞吐量的前提下,尽量保持交换机中队列长度较短.DCTCP的实现利用了显式拥塞通知(Explicit Congestion Notification,ECN)功能,在交换机队列长度超过一定阈值时,向源端通告并让源端降低发送速度,避免丢包.同时,发送方收到拥塞通告后,不再单一地将拥塞窗口减半,而是根据当前网络的拥塞轻重情况相应地减小拥塞窗口大小.文献提出的解决方案摒弃了TCP,使用UDP传输数据.由于UDP没有类似TCP的拥塞控制机制,因此即使发生丢包,也不会造成发送方降低发送速度或停止发送.但采用UDP同时也带来了挑战:一是UDP无法保证数据的可靠传输,二是UDP会不公平地抢占网络中其它TCP流的带宽.该方案使用了数据喷泉码保证数据的可靠传输,并通过部署TFRC(TCP Friendly Rate Control)保证TCP友好. 2. 多路径TCP 传统TCP协议在一对源端和目的端之间只建立一条连接传输数据.但如上所述,为了解决数据中心网络的诸多问题,学术界在近几年提出了若干种新的富连接拓扑方案,如Fat Tree、VL2和BCube等.这些拓扑中任意一对源端和目的端之间同时存在多条路径.为了充分利用链路资源、提高网络吞吐率,多径TCP(MPTCP)被引入到数据中心网络中.MPTCP在同一对源端和目的端之间建立多个连接,源端将数据拆分成若干部分,使用不同的连接同时进行数据传输.MPTCP相较于标准TCP的不同的地方有:①MPTCP的连接建立操作比标准TCP复杂.MPTCP在连接建立阶段,要求服务器端向客户端返回服务器端所有的地址信息,用于客户端建立连接.不同子流的源/目的地址信息可以相同,也可以不同.②各个子流维护自己的序列号和拥塞窗口.由于数据同时使用多个子流传输,因此接收端需要增加额外的操作,用于将从不同子流接收到的数据组装为原来的顺序.③MPTCP同样采用AIMD机制维护拥塞窗口,但各个子流的拥塞窗口增加与所有子流拥塞窗口的总和有关,从而能够保证将拥塞链路的流量往拥塞程度更轻的链路上转移 3. 为应用定制的传输协议 与互联网为所有应用提供公共的传输协议不同,不同的云计算数据中心往往运行不同的典型应用,因此为特定的数据中心应用定制不同的传输协议,是数据中心网络传输协议研究的一个重要方向.比较有代表性的协议是D3.D3针对数据中心的实时应用,通过分析数据流的传输数据大小和完成时间需求,为每个流显示分配传输速率.当网络资源紧张时,主动断开某些无法按时完成传输的数据流,从而保证更多的数据流能按时完成传输.实验表明,与传统TCP协议相比,D3可以大大增加数据中心的吞吐率 参考文献 [1] 魏祥麟, 陈鸣, 范建华, 等. 数据中心网络的体系结构[J]. 软件学报, 2013,02:295-316. [2] 李丹, 陈贵海, 任丰原, 等. 数据中心网络的研究进展与趋势[J]. 计算机学报, 2014, 37(2): 259-274. [3] Chowdhury N M M K, Boutaba R. A survey of network virtualization[J]. Computer Networks, 2010, 54(5): 862-876. [4] Chang F, Dean J, Ghemawat S, et al. Bigtable: A distributed storage system for structured data[J]. ACM Transactions on Computer Systems (TOCS), 2008, 26(2): 4. [5] Greenberg A, Hamilton J, Maltz D A, et al. The cost of a cloud: research problems in data center networks[J]. ACM SIGCOMM Computer Communication Review, 2008, 39(1): 68-73. [6] Al-Fares M, Loukissas A, Vahdat A, et al. A scalable, commodity data center network architecture[J]. ACM SIGCOMM Computer Communication Review, 2008, 38(4): 63-74. [7] Greenberg A, Hamilton J R, Jain N, et al. VL2: a scalable and flexible data center network[J]. Acm Sigcomm Computer Communication Review, 2009, 39(4):95-104. [8] Guo C, Lu G, Li D, et al. BCube: A High Performance, Server-centric Network Architecture for Modular Data Centers[J]. Sigcomm, 2009, 39(4):63-74. [9] Mysore R N, Pamboris A, Farrington N, et al. PortLand: a scalable fault-tolerant layer 2 data center network fabric[J]. Acm Sigcomm Computer Communication Review, 2009, 39(4):39-50. [10] Kandula S, Padhye J, Bahl P. Flyways to de-congest data center networks[C]. Proceedings of the ACM Workshop on Hot Topics in Networks (Hot Nets), New York, USA, 2009. [11] Cui Y, Wang H, Cheng X. Channel allocation in wireless data center networks[C]. Proceedings of IEEE INFOCOM , Shanghai, China,2011: 1395-1403. [12] Vasudevan V, Phanishayee A, Shah H, et al. Safe and Effective Fine-grained TCP Retransmissions for Datacenter Communication[J]. Acm Sigcomm Computer Communication Review, 2009, 39(4): 303-314. [13] Chen Y, Griffith R, Liu J, et al. Understanding TCP incast throughput collapse in datacenter networks[C]. Proceedings of the 1st ACM workshop on Research on enterprise networking. ACM, 2009: 73-82. [14] Zhang J, Ren F, Lin C. Modeling and understanding TCP incast in data center networks[C]. Proceedings of IEEE INFOCOM , Shanghai, China,2011: 1377-1385. [15] Phanishayee A, Krevat E, Vasudevan V, et al. Measurement and Analysis of TCP Throughput Collapse in Cluster-based Storage Systems[C]. Proceedings of the 6th USENIX Conference on File and Storage Technologies. San Jose, CA, 2008: 175-188 [16] Wu H, Feng Z, Guo C, et al. ICTCP: incast congestion control for TCP in data-center networks[J]. IEEE/ACM Transactions on Networking (TON), 2013, 21(2): 345-358. [17] Alizadeh M, Greenberg A, Maltz D A, et al. Data center tcp (dctcp)[J]. ACM SIGCOMM computer communication review, 2011, 41(4): 63-74. [18] Alizadeh M, Kabbani A, Edsall T, et al. Less is more: trading a little bandwidth for ultra-low latency in the data center[C]. Proceedings of the 9th USENIX conference on Networked Systems Design and Implementation. San Jose, CA, 2012: 19-19. [19] Hong C Y, Caesar M, Godfrey P. Finishing flows quickly with preemptive scheduling[J]. ACM SIGCOMM Computer Communication Review, 2012, 42(4): 127-138. [20] Wilson C, Ballani H, Karagiannis T, et al. Better Never than Late: Meeting Deadlines in Datacenter Networks[J]. Acm Sigcomm Computer Communication Review, 2011, 41(4):50-61. [21] Alizadeh M, Yang S, Sharif M, et al. pfabric: Minimal near-optimal datacenter transport[J]. ACM SIGCOMM Computer Communication Review, 2013, 43(4): 435-446. [22] Zats D, Das T, Mohan P, et al. DeTail: reducing the flow completion time tail in datacenter networks[J]. ACM SIGCOMM Computer Communication Review, 2012, 42(4): 139-150. [23] Vamanan B, Hasan J, Vijaykumar T N. Deadline-aware datacenter tcp (d2tcp)[J]. ACM SIGCOMM Computer Communication Review, 2012, 42(4): 115-126. [24] Ford A, Raiciu C, Handley M, et al. TCP extensions for multipath operation with multiple addresses[J]. Internet Engineering Task Force, RFC, 2013, 6824. [25] Wischik D, Raiciu C, Greenhalgh A, et al. Design, implementation and evaluation of congestion control for multipath TCP[J]. Proc Networked Systems Design Implementation March/april, 2011:8-8. [26] Raiciu C, Barre S, Pluntke C, et al. Improving datacenter performance and robustness with multipath tcp[J]. ACM SIGCOMM Computer Communication Review, 2011, 41(4): 266-277. [27] Rabinovich R. 40 Gb/s and 100 Gb/s ethernet short-reach optical and copper host board channel design[J]. IEEE Communications Magazine, 2012, 50(4):129 - 133. [28] Abts D, Felderman B. A guided tour through data-center networking[J]. ACM Queue, 2012, 10(5): 10 [29] Benson T, Anand A, Akella A, et al. Understanding data center traffic characteristics[J]. ACM SIGCOMM Computer Communication Review, 2010, 40(1): 92-99. [30] Kandula S, Sengupta S, Greenberg A, et al. The nature of data center traffic: measurements analysis[C]. Proceedings of the 9th ACM SIGCOMM conference on Internet measurement conference. ACM, 2009: 202-208. [31] Issariyakul T, Hossain E, Issariyakul T, et al. Introduction to Network Simulator NS2[J]. Springer Berlin, 2008:21-40.

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。