千家信息网

LVS群集应用基础及搭建NFS共享存储服务

发表于:2024-11-20 作者:千家信息网编辑
千家信息网最后更新 2024年11月20日,下文给大家带来LVS群集应用基础及搭建NFS共享存储服务,希望能够给大家在实际运用中带来一定的帮助,负载均衡涉及的东西比较多,理论也不多,网上有很多书籍,今天我们就用在行业内累计的经验来做一个解答。一
千家信息网最后更新 2024年11月20日LVS群集应用基础及搭建NFS共享存储服务

下文给大家带来LVS群集应用基础及搭建NFS共享存储服务,希望能够给大家在实际运用中带来一定的帮助,负载均衡涉及的东西比较多,理论也不多,网上有很多书籍,今天我们就用在行业内累计的经验做一个解答。


一、LVS群集应用基础

根据实际企业环境的不同,群集所提供的功能也各不相同,采用的技术细节也可能各有千秋。然而从整体上来看,需要先了解一些关于群集的共性特征,这样才能在构建和维护群集的工作中做到心中有数,避免操作上的盲目性。

1、群集的类型

无论是哪种群集,都至少包括两台节点云服务器,而对外表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机。根据群集所针对的目标差异,可以分为以下三种类型。

  • 负载均衡群集(Load Balance Cluster):以提高应用系统的响应能力、尽可能处理更多的访问请求、较少延迟为目的,获得高并发、高负载的整体性能。例如,"DNS轮询" 、"应用层交换"、"反向代理"等都可用做负载均衡群集。LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。

  • 高可用群集(High Availability Cluster):以提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果,例如,"故障切换"。"双机热备"、"多机热备"、等都属于高可用群集技术,HA的工作方式包括双工和主从两种模式。双工就是所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点,和Cisco路由器的HSRP原理类似。

  • 高性能运算群集(High Performance Computer Cluster):以提高应用系统的CPU运算速度,扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力。例如,"云计算"、"网格计算"也可以当成HPC的一种。HPC群集的高性能依赖于"分布式计算" "并行计算",通过专用硬件和软件将多台服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。

不同类型的群集可以根据实际需求进行合并,如高可用的负载均衡群集。

2、负载均衡的分层结构

  • 第一层:负载调度器,这是访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP(虚拟IP)地址,也称为群集IP。通常会配置主、备两台调度器实现热备份,当主调度器失效以后平滑替换至备用调度器,确保高可用性。

  • 第二层:服务器池,群集所提供的应用服务(如HTTP、FTP)由服务器池承担,其中每个节点具有独立的RIP(真实IP)地址,只处理调度器分发过来的客户机请求,当某个节点暂时失效,负载调度器的容错机制会将其隔离,等待错误排除后在将其重新纳入服务器池。

  • 第三层:共享存储,为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。在Linux/UNIX环境中,共享存储可以使用NAS设备,或者提供NFS(网络文件系统)共享服务的专用服务器。

3、负载均衡的工作模式

关于群集的负载调度技术,可以基于IP、端口、内容等进行分发,其中基于IP的负载调度是效率最高的,基于IP的负载均衡模式中,常见的有地址转换、IP隧道和直接路由三种工作模式,如下图:

  • 地址转换:简称NAT模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口。服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式,但负载调度器的压力较大。

  • IP隧道:简称TUN模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器,服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。

  • 直接路由:简称DR模式,采用半开放的网络结构,与TUN模式的结构类似,但各节点不是分散在各地的,而是与调度器位于同一个物理网络,负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道。

以上三种工作模式中,NAT方式只需要一个公网IP地址,从而成为最易用的一种负载均衡模式,安全性也比较好,许多硬件负载均衡设备就采用这种方式;相比较而言,DR模式和TUN模式的负载能力更加强大,适用范围更广,但节点的安全性要稍微差一些。

二、LVS虚拟服务器

Linux Virtual Server是针对Linux内核开发的一个负载均衡项目,官网是:http://www.linuxvirtualserver.org/ 可以进入官网查阅相关的技术文档。LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出了一种高效率的解决方法。LVS现在已经成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。在Centos 7系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息:

[root@centos01 ~]# modprobe ip_vs      [root@centos01 ~]# cat /proc/net/ip_vs  IP Virtual Server version 1.2.1 (size=4096)Prot LocalAddress:Port Scheduler Flags  -> RemoteAddress:Port Forward Weight ActiveConn InActConn

1、LVS的负载调度算法

针对不同的网络服务和配置需要,LVS调度器提供多种不同的负载调度算法,其中最常用的四种算法包括轮询、加权轮询、最少连接和加权最少连接。

  • 轮询(rr):将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每台服务器,而不管服务器实际的连接数和系统负载。

  • 加权轮询(wrr):根据真实服务器的处理能力轮流分配收到的访问请求,调度器可以自动查询个节点的负载情况,并动态调整其权重。这样可以保证处理能力强的服务器承担更多的访问流量。

  • 最少连接(lc):根据真实服务器已建立的连接数进行分配,将受到的访问请求优先分配给连接数最少的节点,如果所有的服务器节点性能相近,采用这种方式可以更好地均衡负载。

  • 加权最少连接(wlc):在服务器节点的性能差异较大的情况下,可以为真实服务器自动调整权重,权重较高的节点将承担更大比例的活动连接负载。

2、使用ipvsadm管理工具

ipvsadm是在负载调度器上使用的LVS群集管理工具,通过调用ip_vs模块来添加、删除服务器节点,以及查看群集的运行状态。

[root@centos01 ~]# yum -y install ipvsadm [root@centos01 ~]# ipvsadm -v      ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)
1)创建虚拟服务器

若群集的VIP地址为172.16.16.172,针对TCP 80端口提供负载分流服务,使用的调度算法为轮询,则对应的ipvsadm命令操作如下所示,对于负载均衡调度器来说,VIP必须是本机实际已启用的IP地址:

[root@centos01 ~]# ipvsadm -A -t 172.16.16.172:80 -s rr

上述操作中,选项-A表示添加虚拟服务器,-t用来指定VIP地址及TCP端口,-s用来指定负载调度算法--轮询(rr)、加权轮询(wrr)、最少连接(lc)、加权最少连接(wlc)。

2)添加服务器节点

为虚拟服务器172.16。16.172添加四个服务器节点,IP地址依次为192.168.7.21~24,对应的ipvsadm命令操作如下所示。若希望使用保持连接,还应添加"-p 60"选项,其中60为保持时间(单位为s):

[root@centos01 ~]# ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.21:80 -m -w 1[root@centos01 ~]# ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.22:80 -m -w 1[root@centos01 ~]# ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.23:80 -m -w 1[root@centos01 ~]# ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.24:80 -m -w 1

上述操作中,选项-a表示添加真实服务器,-t用来指定VIP地址及TCP端口,-r用来指定RIP(真实IP)地址及TCP端口,-m表示使用NAT群集模式(-g DR模式和-i TUN模式),-w用来设置权重(权重为0时表示暂停节点)。

3)查看群集节点状态

结合选项-l可以列表查看LVS虚拟服务器,可以指定只查看某一个VIP地址(默认为查看所有),结合选项-n将以数字形式显示地址、端口等信息:

[root@centos01 ~]# ipvsadm -lnIP Virtual Server version 1.2.1 (size=4096)Prot LocalAddress:Port Scheduler Flags  -> RemoteAddress:Port           Forward Weight ActiveConn InActConnTCP  172.16.16.172:80 rr  -> 192.168.7.21:80              Masq    1      0          0           -> 192.168.7.22:80              Masq    1      0          0           -> 192.168.7.23:80              Masq    1      0          0           -> 192.168.7.24:80              Masq    1      0          0      

上述输出结果中Forward列下的Masquerade(地址伪装),表示采用的群集模式为NAT;如果是Route,则表示采用的群集模式为DR。

4)删除服务器节点

需要从服务器池中删除某一个节点时,使用选项-d。执行删除操作必须指定目标对象,包括节点地址、虚拟IP地址。例如,以下操作将会删除LVS群集172.16.16.172中的节点192.168.7.24。

[root@centos01 ~]# ipvsadm -d -r 192.168.7.24:80 -t 172.16.16.172:80

需要删除整个虚拟服务器时,使用选项-D并指定虚拟IP地址即可,无须指定节点。例如,若执行"ipvsadm -D -t 172.16.16.172:80",则删除此虚拟化服务器。

5)保存负载分配策略

使用导出/导入工具ipvsadm-save/ipvsadm-restore可以保存、恢复LVS策略。当然也可以快速清除、重建负载分配策略。

[root@centos01 ~]# ipvsadm-save > /etc/sysconfig/ipvsadm  [root@centos01 ~]# cat /etc/sysconfig/ipvsadm  -A -t 172.16.16.172:http -s rr -a -t 172.16.16.172:http -r 192.168.7.21:http -m -w 1-a -t 172.16.16.172:http -r 192.168.7.22:http -m -w 1-a -t 172.16.16.172:http -r 192.168.7.23:http -m -w 1[root@centos01 ~]# systemctl stop ipvsadm [root@centos01 ~]# systemctl start ipvsadm [root@centos01 ~]# systemctl enable nfs[root@centos01 ~]# systemctl enable rpcbind
2)设置共享目录

NFS的配置文件为/etc/exports,文件内容默认为空(无任何共享)。在exports文件中设置共享资源时,记录格式为"目录位置 客户机地址(权限选项)"。例如,若要将文件夹/opt/wwwroot共享给172.16.16.0/24网段使用,允许读写操作,具体配置如下所示:

[root@centos01 ~]# mkdir -p /opt/wwwroot [root@centos01 ~]# vim /etc/exports /opt/wwwroot    192.168.100.0/24(rw,sync,no_root_squash)

*上述配置中"192.168.100.0/24"表示允许访问的客户机地址,可以是主机名、IP地址、网段地址、允许使用、?通配符;权限选项中的rw表示允许读写(ro为只读),sync表示同步写入,no_root_squash表示当前客户机以root身份访问时赋予本地root权限(默认是root_squash,将作为nfsnobody用户对待)。**

当需要将同一个目录共享给不同的客户机,且分配不同权限时,只要用空格分隔指定多个"客户机(权限选项)"即可。例如,以下操作将/var/ftp/public目录共享给两个客户机,并分别给予只读、读写权限。

[root@centos01 ~]# vim /etc/exports/var/ftp/pub    192.168.4.11(ro) 192.168.4.110(rw)
3)启动NFS服务程序
[root@centos01 ~]# systemctl start rpcbind[root@centos01 ~]# systemctl start nfs[root@centos01 ~]# netstat -anptu | grep rpcbindudp        0      0 0.0.0.0:965             0.0.0.0:*                           2064/rpcbind        udp        0      0 0.0.0.0:111             0.0.0.0:*                           2064/rpcbind        udp6       0      0 :::965                  :::*                                2064/rpcbind        udp6       0      0 :::111                  :::*                                2064/rpcbind     
4)查看本机发布的NFS共享目录
[root@centos01 ~]# showmount -eExport list for centos01:/opt/wwwroot 192.168.100.0/24/var/ftp/pub 192.168.4.110,192.168.4.11

2、在客户端中访问NFS共享资源

NFS协议的目标是提供一种网络文件系统,因此对NFS共享的访问也使用mount命令进行挂载,对应的文件系统类型为nfs,既可以手动挂载,也可以加入fstab配置文件来实现开机自动挂载,考虑到群集系统中的网络稳定性,NFS服务器与客户机之间最好使用专有网络进行连接。

1)安装rpcbind软件包,并启动rpcbind服务

若要正常访问NFS共享资源,客户机中也需要安装rpcbind软件包,并启动rpcbind系统服务。另外,为了使用showmount查询工具,建议将nfs-utils软件包也一起装上。

[root@centos02 ~]# yum -y install nfs-utils rpcbind[root@centos02 ~]# systemctl start rcpbind[root@centos02 ~]# systemctl enable rcpbind

如果客户端已经安装了nfs-utils软件包,则客户端也可以使用showmount查看NFS服务器端共享了哪些目录,查询格式为"showmount -e 服务器地址"。

[root@centos02 ~]# showmount -e 192.168.100.10Export list for 192.168.100.10:/opt/wwwroot 192.168.100.0/24/var/ftp/pub 192.168.4.110,192.168.4.11
2)手动挂载NFS共享目录

以root用户身份执行mount操作,将NFS服务器共享的/opt/wwwroot目录挂载到本地目录/var/www/html。与挂载本地文件系统不同的是,设备位置处应指出服务器地址。

[root@centos02 ~]# mount 192.168.100.10:/opt/wwwroot /var/www/html  [root@centos02 ~]# df -hT /var/www/html文件系统                    类型  容量  已用  可用 已用% 挂载点192.168.100.10:/opt/wwwroot nfs4   76G  3.7G   73G    5% /var/www/html
3)fstab自动挂载设置

修改/etc/fstab配置文件,加入NFS共享目录的挂载设置。注意将文件系统类型设为nfs,挂载参数建添加_netdev(设备需要网络);若添加soft、intr参数可以实现软挂载,允许在网络中断时放弃挂载。这样客户端就可以在每次开机后自动挂载NFS共享资源了。

[root@centos02 ~]# vim /etc/fstab......  192.168.100.10:/opt/wwwroot /var/www/html                         nfs     defaults,_netdev        0 0

看了以上关于LVS群集应用基础及搭建NFS共享存储服务,如果大家还有什么地方需要了解的可以在行业资讯里查找自己感兴趣的或者找我们的专业技术工程师解答的,技术工程师在行业内拥有十几年的经验了。

0