怎么以ScaleIO为例分析SERVER SAN的部署
今天就跟大家聊聊有关怎么以ScaleIO为例分析SERVER SAN的部署,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
其实SERVER SAN是挺好的,但部署比较麻烦。涉及到操作系统,网络等方方面面。特别是网络的规划,弄不好性能会奇差无比,甚至会在超融合部署情况下把应用带死。
今天打算以EMC ScaleIO为例,来谈谈SERVER SAN的部署。下面分享即ScaleIO部署的通用的考虑。
ScaleIO简介
其实,部署任何SERVER SAN的时候,我们先要了解一下这个SERVER SAN的基本框架,不同的厂商采用的技术不同,因此,部署的方式也不同。
虽然ScaleIO我们前面也分享过,不过还是做一个简单的回顾。
ScaleIO软件主要有三个组件:
Meta Data Manager-MDM,元数据管理组件,需要部署成主备集群模式,另外,还需要部署一个做仲裁(Tie Breaker),当集群分裂的时候决定那个进程接管元数据管理。
ScaleIO Data Server-SDS,数据服务器,提供存储服务。
ScaleIO Data Client-SDC,数据客户端,安装在主机侧,需要访问ScaleIO存储的主机都需要这个东西。
如果大家学过一些分布式文件系统的架构,理解这个就比较容易了,因为一般为了良好的扩展性,都有元数据这一层。比如昆腾的StorNext,虽然是一个文件系统,也有这三个部件(采用专用NAS客户端的时候)。华为的OceanStor 9000也是类似的,不过由于其采用标准NAS客户端,而且元数据组件由系统自己管理,没有单独体现而已了。
由于ScaleIO需要专门的SDC客户端,因此,我们可以理解这个不是一个通用的SERVER SAN,和华为的FusionStorage等其他SERVER SAN不同,它对外不是提供一个或多个通用的ISCSI或者FC主机接口,而是需要在主机上安装一个专有的客户端,这种专有的连接方式虽然部署麻烦一些,但采用私有协议,协调起来比较方便,也避免了处理传统的IP SAN或者FC SAN的多路径切换的麻烦。
了解这三个模块后,才能更好规划网络。网络分管理网络(访问MDM的部分),控制网络(MDM间互连部分),重构网络(SDS间互连部分),数据路径网络(SDC访问SDS部分)。如果有条件,这四个网络都隔离开,相互之间的流量相互不影响,性能好,可靠性和安全性也更有保障。当然,测试环境,部署在一起也没有问题。
在ScaleIO里,还有一个保护域的概念,一个保护域就是相互保护的一组SDS。一个SDS只能属于一个保护域。保护域里可以划分为很多存储池,一般一个存储池的介质都是一样的,比如性能池用SSD,而容量池就用HDD。虽然存储池也可以配置混合介质,但由于ScaleIO没有自动分层的概念,因此这个存储池的性能只能按照最慢的介质来算了,太浪费里,因此不建议这么部署。
还有一个逻辑术语叫容错集。这个也是用户自己划分的,一般按照供电线路来划分,常见的就是一个机柜做一个容错集。大家知道,ScaleIO采用的是两副本的数据保护方式,划分容错集后就可以保证两份数据保存在不同的容错集里,这样一个机柜掉电了,数据也不会丢失。
MDM,SDS,SDC都是逻辑的,因此,物理部署的时候,可能在不同的物理节点上,也可能在相同的节点上。
ScaleIO对网络和OS的通用要求
ScaleIO每个节点对网络的要求,需要重点关注一下:
One of the following:
• 1 gigabit or 10 gigabit (recommended) network
• IP-over-InfiniBand network
Dual-port network interface cards (recommended)
Ensure the following:
• There is network connectivity between all components.
• Network bandwidth and latency between all nodes is acceptable, according to application demands.
• Ethernet switch supports the bandwidth between network nodes.
• MTU settings are consistent across all servers and switches. For jumbo frame support, set the MTU for servers, switches, and vSwitches to 9000.
• The following ports are not used by any other application, and are open in the local firewall of the server:
-MDM: 6611 and 9011
-SDS: 7072
-Tie-Breaker: 9011
-ScaleIO Gateway (includes REST Gateway, Installation Manager, and SNMP trap sender): 80 and 443
-Light Installation Agent (LIA): 9099
• The following port is open in the local firewall of the server:
-SNMP traps: 162
ScaleIO虽然支持以太网和Infiniband,但IB一般用得很少。一般一个节点需要两个10GE的网口。网络安全规划的时候,特别要注意每个应用的IP端口号,防火墙配置的时候要保证其报文可以通过。
ScaleIO对操作系统的要求,也是要提前检查的:
One of the following (for a complete list, see the EMC Support Matrix):
• Linux: CentOS 6.0-7.0, Red Hat 6.0-7.0, SUSE 11 SP2 and SP3, or SUSE 12
Packages required for all components:
-numactl
-libaio
Packages required for MDM components:
-mutt (for Call-Home)
-bash-completion (for scli completion)
-Latest version of Python 2.X
-When installing the MDM component on Linux CentOS 6 or RHEL 6 hosts, set the shared memory parameter in the /etc/sysctl.conf file to at least the following value:
kernel.shmmax=209715200. To use this value, type the sysctl -p command.
Requirements for running the GUI:
-Java 1.6, or higher
-Screen resolution: 1366 x 768 minimum
• Windows: 2008 R2, 2012, or 2012 R2
Requirements for running the GUI:
-Java 1.7, or higher
-Screen resolution: 1366 x 768 minimum
Packages required for MDM components:
-Install the EMC-provided PythonModulesInstall.exe on all MDM nodes. Download the file from the EMC Online Support site (search for ScaleIO Python Installation Modules) on https://support.emc.com.
To install SDC on 2008 R2, ensure that Microsoft Security Update KB3033929 is installed.
• Hypervisors:
-VMware ESXi OS: 5.5 or 6.0, managed by vCenter 5.5 or 6.0 only
-Hyper-V
-XenServer 6.1
-RedHat KVM
我们看到,ScaleIO支持Linux和Windows操作系统,也支持VMware、Microsoft、XenServer和Redhat的Hypervisor,支持还是相当全面的。常用的OS里面,只有Ubutun还不支持。
ScaleIO的超融合部署
ScaleIO支持2层部署(SAN.NEXT),也支持超融合部署(INFRASTRUCTURE.NEXT)。
而超融合部署里面,最常见的是VMware,XEN和OpenStack。
1、和VMware ESX结合。
ScaleIO虽然没有像VMWARE VSAN一样集成到vSphere的内核里,但还是可以把SDC部署在Hypervisor里面,但是SDS需要运行在一个单独的VM(SVM)里。VM可以通过VMFS或者RDM的方式使用存储。
2、和Xen VM架构结合。
ScaleIO可以把SDC和SDS都部署在DOM 0里,但建议增加DOM 0的内存。
3、和OpenStack配合部署。
ScaleIO提供了Cinder接口和Nova接口,可以部署在OpenStack环境。Cinder接口大家好理解,它是提供块服务的,因为ScaleIO毕竟是一个SAN。但为啥需要提供一个Nova(提供计算)驱动呢?一般的存储不需要这个驱动的啊?这个主要是ScaleIO需要自己的SDC客户端,因此必须通过Nova这个计算接口来控制SDC,使得相应的实例可以访问对应的卷。
看完上述内容,你们对怎么以ScaleIO为例分析SERVER SAN的部署有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注行业资讯频道,感谢大家的支持。