奇异果体育新闻中心
云架构 数据中心内部网络 云数据中心的体系结构奇异果体育
SDN概念一直如火如荼,若是要谈到概念落地及大规模应用,一定离不开SDN在云计算数据中心的实践应用。云数据中心对网络提出了灵活、按需、动态和隔离的需求,SDN的集中控制、控制与转发分离、应用可编程这三个特点正巧能够较好的匹配以上需求。SDN,可以看为是软件开发和网络技术的混合领域。本文站在云数据中心网络维护工程师的角度,给大家分享SDN与云数据中心结合的前世今生。
云计算近十年来受到互联网、IT和电信业共同的关注,云计算技术的快速发展和广泛应用使得数据中心的业务形态产生了很大的变化。目前数据中心业务聚焦在Iaas层,即云计算数据中心利用自身所拥有的计算、存储、网络、软件平台等资源向租户提供Iaas虚拟资源出租。典型的IaaS资源包含云主机(虚拟机)、对象存储、块存储、VPC专用网络(VPC,Virtual Private Network虚拟私有云)、公网IP、带宽、防火墙、负载均衡等产品。
在网络层面,假设暂不考虑公网IP、带宽等衍生网络产品,仅是云主机,网络上最基本的技术要求就是可迁移性和隔离性。可迁移性,通常是指云主机在数据中心具备自动恢复能力。当云主机所在宿主机(物理服务器)出现宕机时,云主机能够自动迁移至另一台正常运行的物理服务器上且IP保持不变。隔离性通常可以分为两个层面,一是不同租户间的网络隔离,鉴于安全考虑,不同租户间内部网络不可达;二是同一租户内部不同子网(vlan)间的隔离,为业务规模较大的租户提供的多层组网能力。
因云主机迁移IP不能变,进而要求网络需处于二层环境中,早期云数据中心在组网上通常是采用大二层技术。大二层技术,简单理解就是整个数据中心是一个大二层环境,云主机网关都位于核心设备上。一想到二层环境,肯定离不开广播风暴,也离不开遏制广播风暴的生成树协议。全网都用生成树协议,势必会阻塞较多的网络链路,导致网络链路利用率不足。为了解决利用率不足的问题,思科VPC(这个跟上文的VPC不一样,virtual port channel虚拟端口转发)技术和华为华三的IRF堆叠技术应运而出。简单的理解,上面两种技术都是对生成树协议的欺骗,最终使被生成树协议阻塞链路转变为可使用状态,提升链路使用率。结合大二层技术使用的租户隔离方式有两种常用的,一个是vlan隔离,一个是VRF(Virtual Routing Forwarding虚拟路由转发)隔离。若是采用vlan隔离,通常需要把云主机网关终结在防火墙上,这样才能满足租户间安全隔离的需求。这种模式下,一般是一个租户对应一个vlan;针对同一租户有多子网的需求,则需要在网关设备防火墙上通过较为复杂策略来实现。若是采用VRF隔离的方式,通常是把云主机网关终结在高端交换机或者路由器上,一个租户对应一个VRF。针对同租户有多子网的需求,则是一个VRF+多个vlan的模式。
受限于vlan/VRF规模,无论是“大二层+vlan”还是“大二层+VRF”,都存在云数据中心租户数量不超过4096个的限制,同时也不允许租户间的IP地址段冲突。在加上传统IP网络架构在虚拟化、灵活配置和可编程方面能力不足,在云数据中心网络服务业务链编排上也有所制约。为了解决上述问题,出现了在云数据中心网络中引入了SDN的技术潮。
SDN的3+2架构模型,从上到下分为应用层、控制层和转发层。以控制层为基准点定义了两个外部接口,其中,向上为应用提供自定义业务功能的API称为北向接口,向下控制使用底层网络资源的API称为南向接口。常用的北向接口标准是Restful,常用的南向接口标准是Openflow。
SDN的3+2架构模型相信大家都不陌生。SDN在云数据中心跟云管理平台(以Openstack为例)整体融合考虑时,比较常见的系统架构如下所示。针对下图进行几个说明,说说为什么常用这种模式:
推荐的SDN系统层次划分中,云数据中心运营管理平台和Openstak统一被定义为应用层,独立的SDN控制器设备构成控制层,底层网络设备构成了转发层。在业界关于Openstack数据中心系统层级,除了图中所示,还有另外一种划分方式。在另一种划分方式中,是把Openstack的Neutorn当成是控制层,由neutron直接对接底层网络设备。在服务器规模较大的云数据中心,尤其是采用虚拟交换机时,控制器跟网络设备(虚拟交换机)之间的交互流量是比较大的。在实际部署中,通常会引用商业版的SDN控制器。商业版的SDN控制器与Neutron的对接,主要体现在于Neutron插件上。
为保障云数据中心的网络信息安全和流量走向有序,基于数据类型将系统架构划分管理和业务两个平面。管理流量(云平台、控制器及网络设备之间控制流量)跑在管理域交换设备构建物理的通道上,业务流量(所有租户的业务流量)跑在业务域交换设备构建物理的通道上。两个数据通道完全隔离,物理独立。上图中的虚线为系统管理流量,实线为用户业务流量。管理平面并无特殊的组网需求,依旧采用传统组网。业务平面承载数据中心全部用户数据流量,需要考虑前面提到的虚拟机迁移大二层、租户隔离以及IP允许冲突等组网需求。云数据中心在业务平面通常采用vxlan的组网模式。需要澄清一点的是,Openstack的Neutron支持多种业务平面的组网模式,如flat, VLAN, GRE 和VXLAN。在云数据中心选择XVLAN的组网,主要是为了满足前面提到的三个组网需求。
Vxlan,简单理解就是隧道报文封装奇异果体育。原始以太网数据包,包括原始IP/MAC地址和vlan等报头信息,均成为vlxan的报文内容。Vxlan包头,包含vxlan隧道两端VTEP(进行vxlan封装的网络设备)的IP/MAC地址和vxlan设备对应的vlan,与原始以太网报文无关。在这里,有三个网络标识要拎出来。
第一个是外层802.1Q,位于vxlan报文封装的包头,是vxlan设备对应的vlan,也叫做underlay网络的vlan,为全局vlan。
第二个是内层802 .1Q,位于原始以太报文内部,是原始用户数据对应的vlan,也成为本地vlan,仅在用户的虚拟机上联的vxlan设备内部有效。
第三个是vxlan的隧道标识,也叫做VNI,是区分vxlan隧道的关键。Vxlan标识位有24位,即最多可支持2^24个,数量上远远胜出vlan/VRF。
业务平面引入vxlan组网,vxlan和租户/租户网络之间的关系是云数据中心的组网模型重点。以一个云数据中心的典型租户VPC为例,分别分析vlan、VRF和vxlan组网的隔离模型。假设租户有2个子网,分别是子网A(192.168.100.0/24)和子网B(10.100.1.0/24),同子网二层互通,跨子网三层互通。
若是在vlan组网中,子网A和子网B分别对应为两个vlan,vlan的网关终结在防火墙上,通过防火墙策略实现跨子网互通。
若是在VRF+vlan的组网中,租户对应为一个VRF,子网A和B分别对应两个vlan,VRF关联两个vlan实现三层互通。
若是在vxlan的组网中,需要理解前面提到的本地vlan和vxlan VNI和全局vlan这三个概念。Vxlan设备是封装和解封vxlan的边缘设备,因此以vxlan设备为界面,形成了全局vlan域和本地vlan隔离域。全局vlan域是vxlan设备和业务域传统网络设备构建的区域,此vlan是在数据中心业务域全局生效的奇异果体育。以下图为例,全局vlan标识为10,是vxlan设备与传统网络互连的二层标识,一般是在组网初始化时就确定了,后续不会更改。Vm至vxlan设备之间是本地隔离域,vlan仅在本地生效。在不同的本地隔离域中,用户每一个子网分别对应一个vlan,同一个子网的本地vlan标识可以相同也可以不同。如图所示,子网A在vxlan设备1构建的隔离域中对应为vlan100,在vxlan设备2构建的隔离域中对应为vlan200。在vxlan组网环境中,尤为关键的是vxlan的VNI标识。VNI标识也是在业务域全局生效的。业界常用方式是,用户的每个子网对应一个vlxan隧道,即一个VNI标识。跨子网通信也对应一个vlxan隧道。如图所示,子网A内部通信的vlxan VNI是10003,子网B内部通信的vlxan VNI是10002,子网A和子网B之间通信的vlxan VNI是10001。SDN控制器需要分配并存储云数据中心用户的vpc网络和底层网络设备本地vlan/vxlan的正确映射关系,设计并下发合适的流表至vxlan,确保业务流量的正常访问。
在SDN云数据中心,进行vxlan封装的可以是物理交换机也可以是虚拟交换机。通常把基于虚拟交换机实现vxlan封装的称为软件解决方案,基于物理交换机实现封装的称为硬件解决方案。这两种方案各有优劣,云数据中心可以基于自身业务模型和规模进行适配选择。
在软件解决方案中,每台硬件服务器上都有虚拟交换机来承载vxlan的封装/解封装。以开源OVS为例,虚拟交换机有br-int和br-tun两个网桥,br-tun承载vlxan功能。也有其他的商用解决方案,仅有一个网桥来实现全部通信功能。控制器跟大量的虚拟交换机的控制流量交互,是方案的难点。尤其是虚拟交换机有首包请求机制时,控制器的压力比较大。
在硬件解决方案中,通常由接入交换机来承载vlxan的封装/解封装。接入交换机通常是下挂24/48的硬件服务器,在同规模数据中心的软件方案相比,大大减少了vxlan设备数量。一些商业解决方案中,接入交换机通常会跑bgp evpn,用来在控制平面交互主机路由等关键信息。在硬件解决方案中,通常也会采用上面提到的本地vlan/全局vxlan/全局vlan这三个隔离概念。因为vxlan设备的本地隔离域很大,用户间隔离及用户内部互通流量模型极为复杂。为了区分不同用户,通常会在vxlan设备引入VRF,即一个用户对应一个VRF(VRF是全局生效的),简化控制复杂度。
在数据中心机房进行搬迁前,应该明确搬迁的目的,确定搬迁的基本目标,同时考虑数据中心的发展目标。因为数据中心机房搬迁不仅是数据中心机房物理位置的改变,也是对数据中心整体系统抗风险能力和工作人员技能及管理能力的一次大检阅、大练兵。基本目标:将当前运行机房中的所有设备、应用系统等安全搬迁至新数据中心机房,实现“平滑切换、平稳过渡”,最大限度地降低数据中心机房搬迁过程对业务的影响是数据中心机房搬迁的基本目
机房建设要求以金融行业机房为例,机房建设须符合(包含且不限于)以下国家及行业标准规范的要求。●《数据中心设计规范》(GB 50174—2017);●《数据中心基础设施施工及验收规范》(GB 50462—2015);●《银发(2017)20号中小银行信息系统托管维护服务规范》;●《金融业信息系统机房动力系统规范》(JR/T 0131—2015)。机房建设示意图如图2-1所示。1.机房规划为避免机房资
数据中心拥有能量密集和高耗能的标签,因此,能耗问题也越来越引起人们的关注。现阶段数据中心的高速发展,降低能耗也变得非常重要。为了解决这个能耗高的问题,从能耗的组成入手,去分析和阐述数据中心能耗的节能技术和措施,探索在数据中心运行中有效实现绿色能耗的方法。
最近在整理建立数据中心的网络架构图,是要好好规划一下什么是一个云数据中心的网络架构,需要什么样的网络产品,但不要被一个或某个厂商绑定。但我想总要包括这几个方面:1、传统的网络架构;2、需要一个网关型的产品;3、UTM的引入;4、SDN5、租户的计量、监控等
云数据中心网络安全业务需求云数据中心安全现状云平台安全威胁逐年加剧。云数据中心威胁主要来自于黑客攻击、恶意用户和用户误操作。主要威胁有特权滥用、DDoS攻击、数据泄露和误操作等。云数据中心网络概述数据中心(Data Center):是一整套包括建筑在内复杂的设施。它不仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含冗余的数据通信连接、环境控制设备、监控设备以及各种安全装置。数据中
发表时间:2012-7-6 王聪 王翠荣 王兴伟 蒋定德 20世纪90年代,客户端/服务器的计算模式得到了广泛应用,在这种计算模式中,数据中心用来存放服务器并提供服务。近几年,互联网技术的蓬勃发展掀起了建设数据中心的高潮,网上银行、证券和娱乐资讯等网络服务逐渐普及,特别是云计算?技术的发展为网络服务形式带来重大变革,使数据中心的发展进入了鼎盛时期。 在云计
目录-目录云数据中心流量类型-NSX整体网络结构管理网络(API网络)租户网络外联网络存储网络-openstack整体网络结构管理网络:(上图中蓝线)外部网络:(上图中黑线)存储网络:(图中红线)租户网络:(图中红线)目录除去我们上一节提到的cisco 的ACI是与思科封闭,自成一体的SDN解决方案以外,大部分SDN的解决方案的重点都不在硬件设备上。
云计算下的数据中心架构 目前最引人关注的的IT 概念非“云计算”莫属,云计算已经成为当今IT 界乃至全球商界最为津津乐道的一个新概念。云计算是指利用大规模的数据中心或超级计算机集群,通过互联网将计算资源免费或按需租用方式提供给使用者。云计算的一个重要应用在于由第三方机构提供云计算数据中心,并为大量的中小企业提供远程共享式的云计算应用服务。使得这些企业不需要建设自己的数据中心就可以使用所需
一、云数据中心代替传统数据中心2013年IBM与AWS CIA项目案例1、技术展现。2、技术解决方案。3、服务水平保障。4、公司管理。纵向拓展向快速水平扩展演进。案例分析:演进分析:传统数据模式主要特点市孤岛式、烟囱式。从PC--X86--小型机--大型机历经了上个世纪到这个世纪初,2009年以前是主要的发展和建设模式。2009年以后发生重大变化,整个IT技术向云的方向发展,从纵向拓展向横向扩展演
前言在当前云计算高速发展的背景下,数据中心网络面临着诸多挑战。 云计算具有资源池化,按需供给等特点,正是因为云计算的出现使得IT资源具备了可运营的条件。 数据中心网络则是云计算生态中非常重要的一环,在云计算的模式下网络承担了基础底座的角色,信息的处理、存储、传递等功能均离不开网络承载。数据中心网络也不得不面临如下挑战:扩展性 扩展性至关重要,尤其是在云数据中心。一个数据中心要能够容纳成千上万的租户
2015年,全世界在it上面的花费达到3亿8千亿美金之多。云数据中心:核心基础架构,云计算的物理载体,提供数据处理、存储和高性能计算支撑,包括服务器、存储、冷却、机房空间和能耗管理等。 超大规模的云数据中心,有上万甚至十万台服务器。 比传统的数据中心,耗能惊人,所以要注重能耗效率PUE. 现代化的云数据中心,采用虚拟化、软件定义等技术,实现按需分配it资源,统一管理和调配所有资源,从而最大化能源和
7.3 Multi-PoD场景和设计7.3.1 Multi-PoD方案的应用场景7.3.1.1 Multi-PoD集群跨数据中心部署集群服务分部在不同的数据中心,对外提供统一的访问接口业务IP由VIP取代。 服务器集群方案对数据中心网络有如下要求:低时延:RTT时延要求,对部署距离有限制二层互联:要求二层互联,对互联时延有限制网络高可靠:互联网络高可靠,避免脑裂发生7.3.1.2 Multi-Po
什么是数据中心数据中心,指用于安置计算机系统及相关部件的设施,例如电信和储存系统。为了满足自身的业务需求,保证数据的稳定和可靠。无论是互联网还是传统行业,都会有自己或大或小的数据中心,甚至如阿里云和亚马逊这种专门以出租计算资源的云计算公司,更是在全世界各地建立了不等的数据中心。尽管到到如今的云计算时代,将数据中心自身的资源虚拟化以达到更高的利用率,有一点肯定,物理资源决定了虚拟资源的天花板。物理网
云数据中心或云计算数据中心,是一种基于云计算架构的,高度虚拟化、自动化、节能化的新型数据中心。其服务器、存储、网络、应用等虚拟化,使用户可以按需调用各种资源,对相关业务进行流程化自动管理,同时在各方面均符合绿色节能的标准。云计算数据中心更加强调与IT系统的协同优化,而传统数据中心常与IT系统相互割裂,更多强调机房的可靠、安全,两者在运行效率、服务类型、资源分配、收费模式等方面均存在较大差异。和传统
数据中心概述:DC (Data Center)企业IT系统的核心海量数据运算、交换、存储的中心关键信息业务应用的计算环境集中管控各种数据、应用程序、物理或虚拟化设备的环境数据中心四大焦点:可靠、灵活、绿色、资源利用率。传统数据中心面临的问题:IT复杂:30%传统数据中心资源分散,利用率低。平均业务恢复时间长。100分钟。80%工程师手工分配资源。5+运维工具,传统数据中心IT设备需要。商业迟缓:大
现在的数据中心,不管是新建还是扩建,清一色都叫做云数据中心,都想和“云计算”靠上些关系,到底“云计算”在数据中心领域应用到什么程度,真是各有差异、参差不齐。不过有一点可以确定:“云计算”时代的到来,给数据中心带来了一次技术革命之风,软件的作用得到放大,这个从“云计算”的定义中就能看出端倪。所谓“云计算”是一种资源的服务模式,可以实现随时随地、便捷按需地从可配置计算资源共享池中获取所需的资源。“云计
云计算将主导应用的未来这一点已经成为业界的共识。在网络架构方面、在网络流量模型方面、在网络安全方面,云计算网络都和以前的传统数据中心网络有很大的改变。为适应云计算业务的发展,网络需要在性能、架构融合、安全融合等方面做出改变,最终能形成全网智能的带宽调动、安全调动,让网络随时就绪。一、端到端万兆网络构筑高速大道虚拟化给网络带来了性能挑战,但提升网络的整体性能需要有的放矢。首先需要明确网络的瓶颈究竟在
不少人把数据中心、云计算数据中心、大数据搞混淆,觉得这三者是一样的产品,其实有显著地区别。数据中心机房是一整套复杂的设施,如今,云计算即将成为信息社会的公共资源,而数据中心则是支撑云计算服务的基础设施,所以自从云计算横空出世,一切信息技术都开始围着它转,云计算有如神一样地存在着,下面看看数据中心、云计算、大数据之间有什么区别和联系?云计算云计算(英语:CloudComputing),是一种基于互联
摘要本文主要讲解mall通过整合SpringSecurity和JWT实现后台用户的登录和授权功能,同时改造Swagger-UI的配置使其可以自动记住登录令牌进行发送。项目使用框架介绍SpringSecuritySpringSecurity是一个强大的可高度定制的认证和授权框架,对于Spring应用来说它是一套Web安全标准。SpringSecurity注重于为Java应用提供认证和授权功能,像所有
关于编码ascii : 8位 1字节 表示1个字符unicode 32位 4个字节 表示一个字符utf- 8 1个英文 8位,1个字节欧洲 16位 两个字节 表示一个字符亚洲 24位 三个字节 表示一个字符gbk 1个英文 8位,1个字节亚洲 16位 两个字节 表示一个字符由于ascii采用单字节表示,可表达的量有限,而unicode则因为采用4个字节而导致存储量偏大,因此,若需要将数