检查频道

主页 > 法律 > 检查 >
各种数据中心的虚拟化技术愈益受到重视
2013年-05月-24日 15时:40分 未知 admin 点击:次 字号【
分享到:
思科大中华区企业部资深用户解决方案架构师 魏航

  随着近年云计算概念兴起和发展,各种数据中心的虚拟化技术愈益受到重视,其中围绕VMware、Citrix等厂商为代表的服务器虚拟化解决方案在企业私有云领域无疑是最为落地的架构即服务(IaaS)云计算实现方式。但随着服务器虚拟化部署的深入,IT管理员受到越来越多网络接入的挑战,因此有必要根据虚拟化服务器的接入要求革新网络的接入方式,为企业私有云提供更好的网络支撑环境。

  虚拟化I/O整合

  首先对服务器接入实现I/O资源整合是网络迫在眉睫的优化方向。传统服务器虚拟化后为保证每个虚机的I/O和虚拟化系统集群所需的网络互连性能,往往需要6~8个千兆网卡、2个HBA存储卡以及服务器管理网口等等,不可避免导致管理复杂、I/O效率低下和网络设备成本增加。因此I/O整合技术应运而生,它包括几个方面:

  ● 服务器使用更高带宽链路(如10G以太网)替代传统千兆链路;

  ● 网卡进行虚拟化实现多个虚拟网卡(vNIC);

  ● 以太网承载FiberChannel存储协议和数据,实现虚拟存储卡(vHBA)。

  万兆以太网接入提供了更大的I/O接入带宽,可缓解虚机I/O紧张的问题。而万兆网卡虚拟化为多个vNIC后,不仅可以拥有和原来多物理网卡一样的使用体验,而且还可进一步分配给多个虚机和Hypervisor本身使用,使每个虚机或系统连接保持独特的网络策略和服务质量。这个技术在早先一般通过PCI SIG Work Group提出的标准Single Root-IO Virtualization(SR-IOV)实现,但该技术没有解决交换机端口对虚拟网卡的识别问题,也没有对虚拟网卡提供更细致的QoS功能。最早具有端到端虚拟化功能的是支持IEEE 802.1BR/Qbh标准的以太网卡和以太网交换机。该系统上每网卡不仅能提供多个虚拟网卡,而且还通过对以太网帧的VN-Tag标记,实现交换机端口上对每个虚拟网卡的识别,并可在网卡上灵活划分每个虚拟网卡的资源,实现精细粒度的QoS管理。另一方面,通过ANSI INCITST11的FiberChannel Over Ethernet(FCoE)技术,可将传统的FC存储网络功能融合到以太网中,这对于愈来愈注重内存计算而导致外存读写批次化、集中化的新一代OLTP类应用而言,无疑是对网络的资源利用率的大幅度提升,同时也简化了管理。

  I/O整合后的实际效果如何呢?以8口千兆、2口HBA的传统服务器接入方式为例,在经过以上万兆化、虚拟化和FCoE整合化之后,仅仅需要一对冗余双活的万兆CNA(Converged Network Adapter)网卡即可完成原来的所有功能,并且存储I/O性能提升10%,CPU占用低8%,布线管理复杂度降低了80%,接口卡成本降低40%,接入交换机成本则只有原来的四分之一,网络功耗降低30%,数据带宽从8G提升到20G,存储带宽从16G提升到20G*。目前主流的服务器厂商都提供CNA网卡选项,其中使用Cisco芯片和Broadcom BCM57712芯片的网卡还能够支持IEEE 802.1BR/Qbh,以实现和交换机相互配合的端到端虚拟化。

  网络的虚机感知

  虚机感知网络主要有两类解决方案:一类是以Cisco Nexus 1000v为代表的“软”解决方案,另一类是以IEEE 802.1BR和IEEE 802.1Qbg为代表的“硬”解决方案。

  “软”解决方案通过替代Hypervisor内的虚拟交换机为更智能的分布式虚拟交换机来解决策略迁移和管理配置一致性问题,用户的使用体验是只需登录一个集中管理点,就可以使用熟悉的物理交换机管理界面来配置和管理集群内所有连接虚机的虚拟交换机端口,物理网络中的Netflow、SPAN、PVLAN、QoS和ACL等智能策略也能够“无损的”迁移到虚拟交换机中来,保证企业全局策略的一致性。

  另一类方案是通过物理交换机、物理网卡和Hypervisor系统共同遵循一个标准协议来实现上述虚机感知使用体验的“硬”解决方案。其代表是Cisco/VMware主导的IEEE 802.1Qbh和后来的HP主导的IEEE 802.1Qbg(VEPA),各自具备鲜明的技术特点。其中,802.1Qbh商用化较早,性能高、功能全面、可扩展性好,由于VMware等Hypervisor厂商的积极参与,其虚机兼容性和诸如Hypervisor-Bypass等高性能特性也非其他解决方案所能及,但它需要交换机和网卡的硬件支持;而802.1Qbg是一种对传统设备的“改良方案”,借用已有协议通过修改软件来实现近似功能,因而对硬件依赖性小,但也因此无法避免“改良方案”所带来的功能和性能的局限。其实与国内一些出于自身利益而将二者截然对立的观念不同,这两类协议其实一直在相互借鉴、共同发展,在802.1Qbg编撰者中不难找到Qbh的Cisco专家的身影,而802.1Qbh的延续802.1BR也宣称会兼容Qbg的VEPA。从当前看,IEEE 802.1BR占据了市场先机,并在IEEE标准规划上级别更高,对Qbg也采用比较“宽容”的兼容并蓄的态度,市场前景更为光明。

  以虚拟服务器为中心的完整云计算网络环境

  以上网络接入的优化虽可获得一些扩展性和可管理性的改善,但并不足以达成完整的私有云计算所要求的虚拟化网络环境,一方面缺少虚机部署所要求的虚拟网络资源和智能服务功能,另一方面云计算须有按业务需求自动化调度虚拟化资源的能力。

  在私有云环境下封装在一个个虚拟应用内的成套虚机组会被大量复制并按需调用,为保证复制后的虚机组内部拓扑和地址的独立性,需要消耗大量独立的二层隔离网段,而服务于物理网络的VLAN无论从扩展数量还是跨越三层网络的灵活性上都无法应对大规模虚机环境的隔离要求。因此由Cisco和VMware为主导,联合Arista、Broadcom、Citrix、Redhat等多家厂商向IETF提交了专用于虚拟网络环境的VxLAN标准。VxLAN提供了远比802.1QVLAN更多的独立网段,并通过MAC in UDP技术实现跨三层的延展能力。另外还将路由器、虚机防火墙、广域网加速、负载均衡等传统网络服务以可渐进部署的虚机方式实现在虚拟网络环境中,同时提供厂商特定技术(如Cisco vPATH)将各类智能服务串接在一个优化的路径中,最终形成了在物理网络之上的可供虚拟化计算环境自由调度资源、可软件定义功能的纯虚拟化网络层。这就是当前前沿的技术热点“软件定义的网络”(Software Defined Network,SDN)的实现形态之一--Overlay SDN。

  以上虚拟化的网络和智能服务资源如果能和虚拟计算资源和存储资源一起被自动化管理工具统一进行管理和调度,即可形成完善的私有云资源调度体系。当前能支持I/O整合、虚机感知、Overlay SDN等新一代虚拟技术的自动化管理工具有Cisco Cloupia、CIAC、VMware vCloud Director等,它们通过配合上述端到端虚拟化网络技术,最终构建了一个完善的企业虚拟化服务器接入网络环境,为进一步实现IaaS的云计算服务奠定基础。
关注我们:
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
用户名: 验证码: 点击我更换图片