电子期刊第九十三期

收到的邮件为乱码该如何处理?

  答:请您按照以下方式登录邮箱,察看是否有乱码

1、登录院邮件系统网站http://mail.cstnet.cn

2、输入邮件地址,邮箱密码,点击“登录”按钮登录邮箱


更多问题

未来数据中心布线系统的五个趋势
 
  现在的数据中心管理人关注点主要集中在IT基础架构,如服务器、存储设备、网络设备。而在基础设施层面,他们也十分在意能耗管理以及物理安全,所以会特别关注制冷、不间断电源等等。这些方面都很重要,而布线,作为数据中心基础设施的环节之一,却很少得到应有的重视。

科研信息化技术与应用

中科院信息化工作动态

中科院国际会议服务平台


技术追踪
  · 磁盘阵列技术的新进展
  · 广域网上运行VoIP:基本的网络规划
  · 数据中心管理迈向云时代
 

磁盘阵列技术的新进展
   
 

  随着近两年云计算概念被炒得热火朝天,存储也被戴了顶“云”帽子。不但EMC、HDS、IBM、NetApp这些存储巨头们带头摇旗呐喊,推出了各自的云存储解决方案,其他很多互联网公司、软件企业、电信设备供应商等大型企业也纷纷加入,推出自己的云战略。一时间,公有云、私有云等各种云产品、云方案,连篇累牍地刺激着观众的眼球。在这股“云”浪潮的推动下,涌现出一批具有独特商业模式的公司,如国内的金山推出了快盘服务,华为也宣布组建云计算产品线。国内一些在存储领域默默耕耘的技术型公司逐渐暂露头角,如中科蓝鲸的蓝鲸集群文件系统就赢得了同行的认可,获得了多个OEM订单,正在一步步从幕后走向前台。

  然而,云存储一般作为存储服务而存在,而那些在底层支撑的传统的存储技术如磁盘、磁盘阵列技术也在悄然的进化中,不但继续服务于传统数据存储应用,瓜分仍在以两位数增长的外部存储市场,也为云计算和云存储提供了物质保证和最基础的支撑,本文将对此就做一个简单的介绍。

  一、硬盘技术

  自从1956年被IBM发明至今,传统的机械硬盘(又称温彻斯特硬盘、温盘)技术的发展从没有间断过。磁盘面密度不断加大、性能不断提高、体积不断缩小,但其结构上并没有发生本质的变化。但这种情况在SSD的出现后发生了转机。

  SSD,又称为固态硬盘。由于没有了传统硬盘的机械读写装置,固态硬盘的随机读写性能大幅度改善,一块普通SSD的小粒度IOPS可以轻松达到上万,对比机械硬盘的几乎是成数量级的提升,一块磁盘的IOPS甚至可达到过去一个磁盘阵列的,在大量读操作的场景下SSD磁盘体现得更为明显。SSD磁盘和传统HDD磁盘相比还具有性能、环保、防振等优势。

  但SSD也有它的问题,和机械硬盘相比其故障模型上存在很大的不同。机械硬盘故障有两种:一种是突然失效,这和使用时间有关,具有较大的时间离散性;另一种是出现坏扇区,也称坏块,这种故障具有时间和空间的双重局部性,而且和读写次数几乎不相关。而SSD的失效模型则根本不同,几乎只和写入的数据量相关。由于其存储单元的擦写寿命只有1万次(MLC)~10万次(SLC),SSD硬盘开发商们开发了如“磨损平衡”、“失效空间预留”等各种技术来尽可能延长SSD的使用寿命,虽然效果很明显,但仍然无法避免理论上的失效问题,尤其是采用多块相同型号SSD硬盘组成的磁盘阵列,在写入一定量的数据后会存在固态盘集体失效的风险,这一点对于很多关键应用来讲是致命的。

  二、存储接口技术

  IDE接口和SCSI接口分别诞生于1986年和1987年,分别定位于桌面和服务器市场,在SATA接口和SAS接口出现之前各自统治桌面和服务器硬盘市场20年。1997年出现的光纤通道(Fibre Channel,FC)技术则第一次把存储推上了一个新的高度,存储系统成为独立的系统而不再是服务器系统的“附件”。

  FC一面世便带着其贵族般的特征:双端口硬盘支持高可用,串行通讯接口支持数据包交换,光纤传输提供高带宽传输,并支持磁盘热插拔、连接设备数量大、远程连接且连接可靠等先进功能,一经推出便牢牢占据了高端磁盘阵列的市场。曾经广泛应用于中、高端磁盘阵列当中,但这种情况在SAS接口出现后,逐渐发生了转变。

  SAS接口规范具备FC规范的双端口、串行数据通讯、多设备支持等优秀特性,迅速获得了广泛采用,发展非常迅速,接口速度方面迅速进化到6Gbps,已经超过其前辈FC的4Gb,并且很快向下一代12Gbps迈进。值得注意的是,似乎硬盘厂商已经逐渐放弃了FC接口磁盘的升级,尽管市场上8Gb的FC接口的磁盘阵列已经大面积普及,但其内部FC磁盘接口的速度仍然停留在4Gbps,并没有跟随新的标准进步,各硬盘厂商更没有明确的路线图。

  一般来讲,目前大于等于10000转以上的磁盘多采用6Gb SAS(Serial Attached SCSI)或4Gb FC(Fibre Channel)接口。低于10000转的磁盘一般采用SATA接口。而最近出现的一个新接口磁盘——NL-SAS,NL-SAS是在原有的企业级SATA硬盘的盘体上装备了标准的SAS接口,使其不但具备了SAS硬盘的所有功能,提高了磁盘阵列的可靠性,而且容量更大,功耗也更低,适用于在一个此盘阵列系统中实现分级存储,并简化了磁盘阵列系统的设计。

  从性能角度来区分,SSD由于其革命性的技术提供了最优的性能,而FC和SAS硬盘拥有同样高的旋转速度也有不错的性能表现,NL-SAS盘和SATA盘则为了兼顾成本、容量和功耗等因素在性能方面做了较大的妥协。

  在磁盘接口方面,由于技术更新较快,新一代的SAS甚至SATA都可以提供6Gb/s的带宽,而FC仍固守4Gb/s 已经感到明显落后。而磁盘阵列的外部接口则仍然以FC为主,虽然SAS接口的高性能令人瞩目,但其外部电缆最大长度只能达到8米远,无法进行远距离传输,也就无法满足异地容灾的需求,在中高端此盘阵列当中很少被采用。另外新近流行起来的两个接口都是基于以太网为载体的,一个是iSCSI接口,另一个是FCoE,两者各有优缺点。一般认为,FCoE比较适合于已经有了FC基础设施和对任务关键型有要求的场合,更加符合FC当前所处的生态环境中;而iSCSI则适用于对性能不敏感的应用,更像是网络环境中的一个分子。

  从长远来讲,SSD磁盘乃是大势所趋,各家存储系统供应商也都有固态磁盘阵列提供,在一些对随机性能要求苛刻的应用当中的确发挥得很出色。但就目前来说基于SSD的磁盘阵列仍然处于起步阶段,并没有经过长时间的实际应用的考验,对于那些对业务连续性要求远高于性能要求的业务,在磁盘阵列中使用SSD硬盘还须多分谨慎。

  三、RAID及磁盘阵列体系架构

  最初的磁盘都是单体使用,为了获得大的容量必须把磁盘体积做得很大,比如1956年IBM发明的第一个硬盘RAMAC虽然只有5MB,但体积有两个冰箱大,1973年的IBM 3340硬盘由于技术进步使容量达到60MB,体积却缩小到家用洗衣机大小。以后的趋势也是沿着容量增大、体积缩小发展,但问题仍然很明显:想获得更大的容量非常困难,或者造价高昂;硬盘故障造成业务停顿甚至是数据丢失。1987年,美国加州大学伯克利分校提出了RAID(Redundant Array of Inexpensive Disk)技术,有了RAID技术,许多小容量磁盘,通过采用不同级别的RAID就可以实现更高的可靠性及读写性能,于是现代概念的磁盘阵列就诞生了。

  在《光纤磁盘阵列技术简析》一文中把磁盘阵列划分为JBOD、双控制器、多控制器三种。如今JBOD已基本不见踪迹,取而代之的是单控制器架构。而随着技术的不断进步和市场的进一步拉动,今天磁盘阵列在现有的单控制器架构、双控制器架构及多控制器架构基础上又演化出三类新型多控制器磁盘阵列,分别为单控松耦合集群架构、双控松耦合集群架构及多控紧耦合集群架构。

  单控制器架构就是通过将服务器与JBOD相结合,整体作为一个存储系统提供存储服务。比如,NETAPP单控的 Filer、一些国内厂家的单控盘阵等。单控制器架构因为结构简单、成本低廉而广泛应用于对业务连续性要求不高的低端应用,或者作为单控松耦合集群架构的基本单元而发挥作用,比如IBM的XIV、被EMC收购的ISILON等系统,就是由这种基本单元构成新型单控松耦合集群架构。

  双控制器架构的两个控制器之间冗余设计,消除了单点故障。市场上大部分中低端磁盘阵列都是这样的体系架构。由于面向中低端市场,同时支持FC-SAN、IP-SAN及NAS访问协议的一体化磁盘阵列,因为功能多样、成本较低、简单易用而较受欢迎,NETAPP、EMC等专业存储厂商都推出了这样一体化存储系统。

  多控制器架构不再局限于两个控制器,可以根据业务需求配置更多控制器协同工作,实现容量扩充的同时性能也得以同步扩充。传统多控制器架构是三层架构,即在前端控制器、后端控制器、中间CACHE缓存之间实现分工协作。EMC的SYMMETRIX DMX系列产品、HDS的USP系列产品都属于典型的传统多控制器架构。

  新型多控制器磁盘阵列是近年存储市场出现的新动向,从体系架构角度看,新型多控制器架构均由上述三种基本架构演化而来,这也符合技术发展的持续性和继承性。

  首先,单控制器架构处理能力有限,同时单一节点又缺乏可靠性设计,人们难以接受单一单控制器架构磁盘阵列。因此一般都是将单控制器架构作为基本单元,再通过以太网、IB(InfiniBand)等外部通用标准通信协议,实现多个单控制器架构之间的松散互连,形成一个整体的数据存储系统,姑且称之为单控松耦合集群架构。这类架构典型产品包括块级接口的XIV、文件级接口的Panasas、Isilon、IBRIX等,这些存储系统一般面向相对独特的非结构化类应用需求。

  双控制器架构也走向了集群化,既所谓的双控松耦合集群架构。这类双控松耦合集群架构的各个双控节点之间一般都采用非全交换式的专网实现连接。EMC的VMAX通过RapidIO技术互连;HP的3PAR系列通过专用背板互连; FUJISU的8000系列通过PCI-E路由互连。这些系统共同问题是,首先整个系统架构存在互连带宽瓶颈;其次跨节点访问存在延迟不一致性。第三由于体系结构改动较大,某些应用在实际生产环境中的性能表现和基准测试的标称值会存在较大差异。

  最后,传统多控制器架构也开始了横向扩展,这便是新型多控紧耦合集群架构。由于传统多控制器架构单一节点非常庞大,实现这些大节点的通信必须采用高带宽、紧耦合的互连为基础。目前新型多控紧耦合集群架构只有HDS的VSP一个产品,HP公司的P9500作为VSP的OEM产品,也是这样的体系架构。EMC的SYMMTRIX 在DMX-4之后似乎停止了传统三层多控制器架构的探索。EMC的新型多控制器架构产品转向了前文提及的VMAX,它和传统的三层架构的多控制器产品SYMMTRIX在体系架构上大相径庭。

  VSP的一个基本单元就是一个传统多控制器架构,继续保持前端控制器、后端控制器及中间高速缓存这样的三层架构,单一节点的规模和上代产品不相上下,因此单一节点具备传统多控制器架构的性能及可靠性。在此基础上,VSP上还增加了一新的VSD核心处理器单元,负责跨节点通信及功能软件。由于VSP继续采用了基于CROSSBAR的全交换架构,在多个节点之间,通过系统内部交换架构实现集群,集群后的存储仍是一个整体,即存储跨节点之间的访问延迟是一致的,这确保了实际使用环境中的稳定性能,避免松散耦合架构导致的性能不确定性。

  对于性能和可靠性要求较高的应用来说,多控制器紧耦合集群架构的磁盘阵列,访存很直接不需要某些转发,从理论上讲应该占些优势。这类磁盘阵列在可靠性和性能方面继承了传统多控制器架构。

  而采用松散耦合的单控或双控集群架构,虽然提供优秀的多方面扩展能力和极低的成本,但在访问延迟等性能方面以及系统部件可靠性上均差距较大,并不适合于延迟敏感的事务密集型应用。

  当然多控制器紧耦合集群架构的最大劣势在于其成本相对较高,如何应对众多新型的多控制器架构的价格战,成为该类存储系统生存发展的关键。

  随着技术的不断发展和应用模式的不断演化,一些破坏性的创新技术也会不断涌现和完善,说不定未来有一天,松耦合的集群架构将逐渐占据更大存储市场份额,就像今天的集群服务器一样,占领部分高端服务器市场。但即便如此,大型机及小型机仍然有其生存和发展空间,起着不可替代的作用,仍然是喜欢它们的老客户之最爱。

 
  广域网上运行VoIP:基本的网络规划
   
 

  只要你的网络架构管理和准备到位,VoIP将在广域网上表现出色。

  企业应该知道VoIP系统和传统的TDM PBX在性能上没有区别,根据ShoreTel市场部副总裁Mark Arman所述, 在广域网上使用VoIP需要具备这两项:

  企业网络必须设置成QoS(服务质量)

  每一次企业安装应该有一位合适的系统管理员参与,确保网络监控和维护。

  ZK Research首席分析家Zeus Kerravala认为,一旦企业在广域网上将VoIP投入生产环境,网络基础架构今后会改变。网络管理员必须改变配置,保证网络性能。

  Kerravala说:“如果你周期性地监控,就知道谁做了调整、在什么时候做、为什么做。而且如果需要、你可以回退撤销改变。”

  广域网上运行VoIP:评估基础设施

  Arman说:“当准备在广域网上运行VoIP,企业应该考虑最基本的东西。这是和电有关的系统。如果电源对企业来说成问题话,那么在准备采购IP电话前,必须克服这个困难。”

  Arman说:“如果公用设备和电源规格符合技术要求,电话厂商会评估企业网络,确定是否适合在广域网上运行VoIP。另外,厂商可能会建议一些软件和网络设备升级。”

  Kerravala认为,准备好基础设施以后,工程师可以同时使用多频率的VoIP和厂商推荐的解码器来获得最好的语音质量。

  当使用多频率VoIP(即高清语音)时, Kerravala说:“工程师应该为分配带宽建立规则。这可以确保有可用的高清语音给重要的语音通讯。虽然多频率消耗很多带宽,但语音质量非常出色。”

  在广域网上运行VoIP:最佳实践

  为了最佳服务质量,即摆脱延迟和抖动,Kerravala建议网络工程师遵循下面做法:

  达到VoIP电源要求。随着功率骤增,一套陈旧、管理不善的电气系统出现的间歇性停电没法实现高质量的VoIP。

  与顾问合作。和在广域网上有过部署VoIP经验的顾问,系统集成商或是增值经销商一起工作。

  做好前期工作:为了可靠性,了解你的网络,确保设施,电脑,电话和网络在接入前都事先准备好。集中呼叫控制,使用广域网传送语音,像在广域网上交付其他应用程序一样交付语音。

  使用冗余WAN链路确保高可用性和可靠性。大多数厂商都有故障切换来应对系统失效,所以安装后不会有宕机。

  把MPLS作为一个单独的服务类别,消除和其他应用程序的争夺。

  给VoIP专用带宽:为了最佳的服务质量,想办法给语音保留专用带宽。

  了解最大呼叫流量,确保有足够的带宽支持业务需求。

 

数据中心管理迈向云时代
   
 

  云计算的来临对传统网络的冲击是多方面、多维度的,这在进入落地阶段尤为明显,许多领域都自觉或者不自觉的被带入这场改变之中,IT管理亦不能例外。

  “云时代的IT管理有什么特征呢?我们总结了两个关键词:智能和开放。”H3C无线及软件产品部部长郑志松这样解读。

  与传统的数据中心相比,云时代数据中心在虚拟化、自动化、资源池化以及安全和开放等方面都提出新要求。服务器以及网络的虚拟化使得管理边界模糊,虚拟机的漂移和管理、访问控制成为难题;根据业务需要自动调节资源分配成为趋势,自动化的需求进一步提高,资源快速开通、度量交付水平SLA以及保障运维流程需要考虑;当后台的IP应用系统被整合为一种资源通过管道输出给不同的应用时,统一的基础设施管理成为必须安全性一直是IT管理的重点之一,而用户对网络安全的要求又相当高,因此网络安全管理变得尤为重要,云时代的网络安全把内置安全机制和主动式安全防护提到新高度;用户对网络架构的开放需求也日益增长。

  应对云时代的这些变化,数据中心管理也需要随之做出改变。横向和纵向的管理都要有所提升。近日发布的iMC数据中心管理解决方案2.0(简称:iMC DCM 2.0)就是作为H3C面向“云时代”的全新数据中心IT管理产品,是基于H3C在2011年发布的iMC V5平台。郑志松说,“与2010年发布的iMC数据中心管理1.0方案相比,iMC 数据中心管理 2.0最大的特色在于自动化和虚拟化管理,为资源池化的云计算环境提供了更高级别的自动化管理保障。”对于H3C来说,iMC DCM2.0针对云计算应用的特性,也符合了其一直强调的新一代互联网NGIP概念中,面向“云”的战略方向。

  作为定位于云时代的数据中心管理方案,iMC DCM 2.0版本具有更全面、更智能、更开放、更安全、更易用等优点。管理员只需iMC DCM2.0解决方案,即可管理网络、虚拟服务器、应用等各种资源;而iMC DCM 2.0中的虚拟服务器管理功能,不仅可以对虚拟服务器资源占用情况进行监控,更可以实现网络策略随虚拟机的迁移而智能迁移;同时iMC DCM 2.0可以提供Restful技术的开放接口,与云计算上层系统对接;并拥有完善的安全管控措施,支持设备配置合规检查和管理员操作审计。

  虚拟化是整个iMC DCM2.0解决方案的一大亮点,而基于802.1Qbg协议实现是亮点中的亮点。基于802.1Qbg 协议,iMC DCM2.0可以实现虚拟化环境中网络配置的自动迁移能力,同时基于对网络、服务器、虚拟机的融合拓扑分析能力,支持vSwitch环境下的网络配置自动迁移能力;实现网络配置的动态迁移,准确定位VM和物理交换机的连接关系。

  “目前,iMC可管理200多家厂商的1000多种系列共计6000多种类型的路由器、交换机、安全、服务器、存储等SNMP设备,这个数据还在不断的增加中。” 郑志松补充到。与很多人以为的iMC大多是随H3C设备而销售的想法不同,“事实上,也有一些用户是先接触到iMC,体验之后才购买的H3C的设备,这种情况在一些国外用户比较常见。”

  与传统的管理软件相比,iMC还开发了一些新潮功能,例如可以提供基于Apple iOS、Andorid等智能终端的管理客户端,管理人员可以通过智能终端对网络进行全天候的监控。此外,iMC DCM 2.0还支持基于Flash技术的大屏展示,实现对数据中心业务运行状态的直观展示。

 

 
7*24专线:010-58812000   技术支持邮箱:support@cstnet.cn   垃圾邮件投诉邮箱:abuse@cstnet.cn
    © 1994-2012 版权所有:中国科技网网络中心     意见反馈: support@cstnet.cn