千家信息网

设备文件管理方法

发表于:2024-11-11 作者:千家信息网编辑
千家信息网最后更新 2024年11月11日,2_设备文件管理方法devfsLinux早期采用的静态管理方法/dev目录下由大量静态文件内核版本2.6.13开始被完全取代udev只有连接系统上来的设备才在/dev下创建设备文件与主、次设备编号无关
千家信息网最后更新 2024年11月11日设备文件管理方法

2_设备文件管理方法

devfs

Linux早期采用的静态管理方法/dev目录下由大量静态文件内核版本2.6.13开始被完全取代

udev

只有连接系统上来的设备才在/dev下创建设备文件与主、次设备编号无关为设备提供持久、一致的名字设备命名规则按设备被加载的顺序命名

接入设备事件链

内核发现设备并导入设备状态到sysfsudev接到事件统治udev创建设备节点或是运行指定程序udev通知hald守护进程HAL探测设备信息HAL创建设备对象结构HAL通过系统消息总线广播该事件用户程序也可以监控该事件

udev的作用

从内核收到添加/一出硬件事件时,udev将会分析:/sys目录下信息/etc/udev/rules.d目录中的规则基于分析结果,udev会:处理设备命名决定要创建那些设备文件或链接决定如何设置属性决定触发那些事件

工作过程

当设备接入,设备信息固定的信息(容量、生产厂商、型号)就会被加载进入内存里面,存入udev配置文件里面

获取已经接口入设备的信息

编写udev规则文件
    vim /etc/udev/rules.d/50-iscsidisk.rules  //文件命名规则1~99 必须有"-"                            后面是描述信息,以.rules结尾    udev主配置文件    vim /etc/udev/udev.conf  //处理详细,不用做处理,保持默认就好    udev_root:创建设备文件位置,默认为/dev    udev_rules:udev规则文件位置,默认为/etc/udev/rules.d    udev_log:syslog优先级,缺省为err

实验:

问题:

   在linux系统中,一切设备皆文件,由于新增设备加载顺序的先后不同,导致相同设备在/dev下的文件名不同,由而引发在服务与存储分离中分区(磁盘)共享时的挂载问题

目的:

   在设备连接上系统时,系统自动给相同设备创建一个链接文件,以后有对该共享设备操作时,利用该链接文件即可对该设备进行操作,解决实验问题

准备:

client50:192.168.4.50storage51:192.168.4.51

1.显示系统的设备信息

udevadm monitor --property

2.获取设备的物理路径

    udevadm info -q path -n /dev/sdd     /devices/platform/host4/session2/target4:0:0/4:0:0:0/block/sdd

3.查看系统识别该设备的参数信息 键值类型

    udevadm info -q all -p     /devices/platform/host4/session2/target4:0:0/4:0:0:0/block/sdd -a        UBSYSTEM=="block"                //设备类型,是一个块设备        ATTR{size}=="10483712"           //设备的大小        ATTRS{model}=="diskb           "  //该设备的型号,空格不能少        ATTRS{vendor}=="LIO-ORG "   //生产厂商信息

4.将以上信息写入/etc/udev/rules.d/50-iscsidisk.rules

UBSYSTEM=="block",  ATTR{size}=="10483712", ATTRS{model}=="diskb         ",  ATTRS{vendor}=="LIO-ORG ",  SYMLINK+="iscsi/vdc"    //当该设备登入后,会对该设备创建一个链接/dev/iscsi/vdc,每个逗号后面的空格不能少      SYMLINK+="iscsi/vdc表示为这个设备做一个软连接,路径为/dev/iscsi/vdc

5.验证:

    把iscsi设备登出,再登入,查看ls /dev/iscsi/vdc 链接文件存在即成功        登出设备        iscsiadm --mode node --targetname         iqn.2018-10.cn.tedu.storage51:vdb --portal 192.168.1.1:3260 --logout        登陆设备        iscsiadm --mode node --targetname         iqn.2018-10.cn.tedu.storage51:vdb --portal 192.168.1.1:3260 --login

配置Multipath多路径

问题:

   单网卡连接之间的网络存储设备的共享不可靠,容易由于非人为破坏导致共享断开,由而引发设置多网卡,然后让多网卡对相同设备进行连接,然而,多网卡之间连接相同的共享设备时,相同设备不同连接不可以进行相互冗余,致使连接无意义

目的:

使多张网卡之间的连接相同的共享设备时可以形成相互冗余、备份,高可用

准备:

添加网卡eth2client50:192.168.2.50storage51:192.168.2.51

登出iscsi设备,分别使用下面设备登陆

    ]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.2.51 --discover //发现    ]# iscsiadm --mode node --targetname                                   //登陆       iqn.2018-10.cn.tedu.storage51:vdb --portal 192.168.2.51:3260 --login    ]# iscsiadm --mode discoverydb --type sendtargets --portal 192.168.4.51 --discover //发现    ]# iscsiadm --mode node --targetname                        //登陆       iqn.2018-10.cn.tedu.storage51:vdb --portal 192.168.4.51:3260 --login

安装多路径软件包

    yum -y install device-mapper-multipath.x86_64    mpathconf --user_friendly_names n   //设置非友好方式产生以下配置文件    ls /etc/multipath.conf              //由上一个命令产生的文件    /usr/lib/udev/scsi_id --whitelisted --device=/dev/sda         360014051854c2ad423e4170a9e4ca149                                //该设备是iscsi设备,会出现一个值

配置/etc/multipath.conf文件

    vim /etc/multipath.conf        //此处内容不动        23 defaults {        24         user_friendly_names no //设置非友好方式产生以下配置文件        25         find_multipaths yes        26 }        //以下内容为新增        97 multipaths {        98         multipath {        99          wwid "360014051854c2ad423e4170a9e4ca149"           100          alias mpatha           101 }           102 }

启用Multipath多路径,并测试

    multipath -rr   //重新加载多路径信息       |-+- policy='service-time 0' prio=1 status=enabled       | `- 14:0:0:0 sda 8:0  active ready running       `-+- policy='service-time 0' prio=1 status=enabled       `- 15:0:0:0 sdb 8:16 active ready running    multipath -ll   //查看多路径信息    ifdown eth2     multipath -rr  //重新加载后就会少一个网口的信息       |-+- policy='service-time 0' prio=1 status=enabled       | `- 14:0:0:0 sda 8:0  active ready running    multipath -ll

以上所有实验都是基于Red Hat Enterprise Linux Server release 7.4 (Maipo)

0