• 产品与解决方案
  • 行业解决方案
  • 服务
  • 支持
  • 合作伙伴
  • 新华三人才研学中心
  • 关于我们

H3C G3&G5服务器 存储控制卡用户指南-6W125

03-第3章 RSTe板载软RAID&VROC SATA RAID

本章节下载 03-第3章 RSTe板载软RAID&VROC SATA RAID  (3.77 MB)

docurl=/cn/Service/Document_Software/Document_Center/Home/Server/00-Public/Configure/User_Manual/H3C_G3_G5_UM-15875-Long/202312/1989689_30005_0.htm

03-第3章 RSTe板载软RAID&VROC SATA RAID


3 RSTe板载软RAID&VROC SATA RAID

本节介绍位于如下设备上的RSTe板载软RAID:

·     机架服务器

·     刀片服务器

·     计算节点

3.1  概述

Intel RSTe(Rapid Storage Technology enterprise)板载软RAID,整合了AHCI和RAID程序,主要用于Intel芯片组的磁盘管理、磁盘状态查看等应用。RSTe内嵌于主板南桥上,对使用SATA磁盘的系统提供RAID功能支持。使用多个磁盘时,可使用RAID技术,对数据进行保护,提高数据读写性能。如使用RSTe板载软RAID配置RAID,一块物理盘最多支持参与两个逻辑盘的创建,第二个逻辑盘会使用物理盘剩余全部容量,且该剩余容量不可调整。

说明

RSTe板载软RAID在G5产品称为VROC SATA RAID。

 

3.1.1  工作模式

RSTe板载软RAID支持如下两种模式:

·     AHCI模式(缺省):支持NCQ(本机命令队列),能提高SATA磁盘的读写速率。系统直接使用物理磁盘来存储数据。

·     RAID模式:即磁盘阵列模式,可以使用多个磁盘配置RAID,提高数据读写性能、提升数据安全性。

说明

·     切换存储控制卡工作模式后,请重新启动服务器使新工作模式生效。

·     切换存储控制卡工作模式后,原模式的系统盘可能出现异常,从而导致操作系统无法正常启动,此时可尝试重新安装操作系统,如仍无法解决,请联系技术支持。

 

3.1.2  支持的RAID级别

各RSTe板载软RAID支持的RAID级别略有不同,详细信息请参见《H3C服务器 存储控制卡功能和技术参数介绍》,各RAID级别对应的成员盘数量如表3-1所示。关于RAID级别的说明,请参见“附录B 磁盘阵列和容错方法”。

表3-1 RAID级别与磁盘数量的关系

RAID级别

最少磁盘数

最多磁盘数

最多故障盘数

RAID 0

2

硬盘背板接口支持的最大硬盘数量

0

RAID 1

2

2

1

RAID 5

3

硬盘背板接口支持的最大硬盘数量

1

RAID 10

4

4

2

 

3.1.3  RAID配置注意事项

·     建议用户安装没有RAID信息的硬盘。

·     请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即满足如下两点:

¡     所有硬盘均为SATA硬盘。

¡     所有硬盘均为HDD或SSD硬盘。

·     建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。

·     不建议将一个硬盘用在多个RAID中,该情况会使后期维护变得复杂,并影响RAID的性能。

3.2  UEFI启动模式下配置RAID

本节介绍在UEFI启动模式下通过RSTe板载软RAID配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为UEFI的详细介绍,请参见BIOS用户指南中的对应章节。

3.2.1  初始功能配置

说明

不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。

 

1. 设置RSTe工作模式

本节介绍设置RSTe板载软RAID工作模式为RAID模式的操作步骤。具体操作过程如下:

(1)     将服务器上电或重启后,在BIOS启动界面,根据提示按下DeleteEsc(部分产品按DeleteF2),进入图3-1所示的BIOS Setup界面。请参考界面右下角的按键操作提示,以实现在界面中导航和修改设置。

图3-1 BIOS Setup界面

 

(2)     如图3-2所示,选择Platform Configuration页签 > PCH Configuration,按Enter

说明

G5产品的Platform Configuration选项在BIOS Setup界面的Advanced页签中。

 

图3-2 Platform Configuration界面

 

(3)     进入图3-3所示界面,选择对应的控制器(如PCH SATA Configuration),然后按Enter

图3-3 PCH Configuration界面

 

(4)     进入图3-4所示界面,选择Configure SATA As,按Enter,然后选择工作模式。关于RSTe板载软RAID工作模式的说明请参见3.1.1  工作模式

图3-4 修改存储控制卡工作模式

 

(5)     配置完成后,按F4,在弹出的对话框中,选择Yes,保存当前配置并重新启动,完成存储控制卡工作模式的设置。

2. 进入RSTe配置界面

本节介绍进入RSTe配置界面,即进入RAID功能相关的配置入口的操作步骤。

(1)     进入BIOS Setup界面。

(2)     如图3-5所示,在BIOS Setup界面选择Advanced页签 >对应的控制器(如Intel(R) VROC sSATA Controller),按Enter

说明

图3-5所示界面上存在对应的控制器选项(如Intel(R) VROC sSATA Controller)的前提是控制器的工作模式已设置为RAID模式(具体方法请参见设置RSTe工作模式)。

 

图3-5 Advanced界面

 

 

(3)     进入图3-6所示的RSTe配置界面。

图3-6 RSTe配置界面

 

3. 配置RAID

本节介绍配置RAID的详细操作步骤,操作过程如下。

(1)     进入RSTe配置界面,具体方法请参见2. 进入RSTe配置界面

(2)     如图3-7所示,选择Create RAID Volume(只有控制器对应的接口连接了两个及以上的磁盘才会有该选项),按Enter

图3-7 选择Create RAID Volume

 

(3)     进入图3-8所示界面,在Name、RAID Level、Select Disks、Strip Size和Capacity栏进行相应的设置(参数说明请参见表3-2),然后选择Create Volume,按Enter,完成RAID的创建。

图3-8 设置RAID参数

 

表3-2 参数说明

参数

说明

Name

RAID的名称。

RAID Level

RAID级别,其决定了逻辑磁盘性能、容错能力和容量。

Select Disks

选择组成RAID的成员磁盘。Select Disks栏下方显示了可用的磁盘,按Enter选择磁盘,[X]表示该磁盘已被选中。

Strip Size

条带大小,写在每块磁盘上的条带数据块的大小。

Capacity

逻辑磁盘的容量。

 

(4)     进入如图3-9所示界面,RAID创建完成后,会在RAID Volumes目录下显示。选择某个RAID,按Enter,可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。

图3-9 查看创建的RAID

 

3.2.2  常用功能配置

1. 配置热备盘

本节介绍配置热备盘的详细操作步骤。

本功能配置的为专有热备盘,热备盘只对第一个RAID卷有效,“第一个RAID卷”是指按照“Intel Virtual RAID on CPU”界面显示RAID卷的顺序从上至下第一个RAID卷。

注意

在配置了热备盘的情况下,若发生了硬盘故障导致RAID降级的情况,热备盘会自动顶替故障硬盘,RAID重建会在进入操作系统后自动进行。

 

(1)     进入RSTe配置界面,具体方法请参见3.2.1  2. 进入RSTe配置界面

(2)     如图3-10所示,选择要用来配置为热备盘的磁盘,按Enter

图3-10 选择要用来配置为热备盘的磁盘

 

(3)     进入图3-11所示界面,选择“Mark as Spare”,按Enter

图3-11 热备盘配置界面

 

(4)     进入图3-12所示界面,选择“Yes”,按Enter,完成热备盘的配置。

图3-12 确认热备盘的配置

 

2. 删除RAID

本节介绍删除RAID的详细操作步骤,操作过程如下。

(1)     进入RSTe配置界面,具体方法请参见3.2.1  2. 进入RSTe配置界面

(2)     如图3-13所示,在RAID Volumes目录下选中待删除的RAID,按Enter

图3-13 选择待删除的RAID

 

(3)     进入图3-14所示RAID的信息界面,选择Delete,按Enter,即可删除该RAID。

图3-14 RAID信息界面

 

3. 定位磁盘位置

本节介绍定位磁盘位置的详细操作步骤,操作过程如下。

(1)     进入RSTe配置界面,具体方法请参见3.2.1  2. 进入RSTe配置界面

(2)     如pic_3_12_new所示,选择需要定位的磁盘,按Enter

图3-15 硬盘信息界面

 

(3)     进入pic_3_13_new所示界面,选择Turn Locate LED On,按Enter,即可完成硬盘的定位,具体硬盘指示灯信息请参见对应产品的用户指南。

图3-16 硬盘定位点灯界面

 

4. 初始化逻辑磁盘

板载软RAID在配置完RAID后,会自动初始化RAID,使其可以被操作系统使用,且使具有冗余功能的RAID中各成员盘的数据关系满足相应的RAID级别要求。

3.3  Legacy启动模式下配置RAID

本节介绍在Legacy启动模式下通过RSTe板载软RAID配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为Legacy的详细介绍,请参见BIOS用户指南中的对应章节。

3.3.1  初始功能配置

说明

不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。

 

1. 设置RSTe工作模式

本节介绍设置RSTe板载软RAID工作模式为RAID模式的操作步骤。具体操作过程如下:

(1)     进入BIOS Setup界面。

(2)     如图3-17所示,在BIOS Setup界面选择Platform Configuration > PCH Configuration,按Enter

图3-17 Platform Configuration界面

 

(3)     进入图3-18所示界面,选择对应的控制器(如PCH SATA Configuration),按Enter

图3-18 PCH Configuration界面

 

(4)     进入图3-19所示界面,选择Configure SATA As项,按Enter,选择RSTe板载软RAID的工作模式。

图3-19 修改存储控制卡工作模式

 

2. 进入RSTe配置界面

本节介绍进入Legacy BIOS配置界面的步骤。进入RSTe配置界面的前提是RSTe板载软RAID的两个控制器任意一个的工作模式设置为RAID(具体方法请参见设置RSTe工作模式),且每个控制器连接的磁盘个数不少于2个。

(1)     将服务器上电或重启,在BIOS启动过程中出现图3-20所示界面后,按Ctrl+I

图3-20 BIOS启动界面

 

说明

若sSATA与SATA控制器的工作模式均设置为RAID,则在BIOS启动过程中会出现两次提示“Press <CTRL-I> to enter Configuration Utility”,依次对应sSATA与SATA控制器,请根据配置RAID所需的磁盘选择控制器。

 

(2)     进入图3-21所示RSTe配置界面(界面说明请参见表3-3)。请参考界面下边框的按键操作提示,以实现在界面中导航和修改设置。

图3-21 RSTe配置界面

 

表3-3 RSTe配置界面说明

选项

说明

MAIN MENU

(主菜单)

位于界面上侧,可以执行如下操作任务:

·     Create RAID Volume:配置RAID卷。

·     Delete RAID Volume:删除RAID卷。

·     Reset Disks to Non-RAID:清除磁盘的RAID配置信息。

·     Mark Disks as Spare:配置热备盘。

·     Exit:退出。

DISK/VOLUME INFORMATION

(磁盘和卷信息)

位于配置界面下侧,可以查看已创建的RAID和物理磁盘的概要信息。

 

3. 配置RAID

本节介绍配置RAID的详细操作步骤,操作过程如下。

(1)     进入RSTe配置界面,具体方法请参见2. 进入RSTe配置界面

(2)     如图3-22所示,在RSTe配置界面选择Create RAID Volume,按Enter

图3-22 RSTe配置界面

 

(3)     进入图3-23所示界面,在Name、RAID Level、Disks、Strip Size和Capacity栏进行相应的设置(参数说明请参见表3-4),然后选择Create Volume,按Enter

图3-23 Create RAID Volume界面

 

表3-4 参数说明

参数

说明

Name

RAID的名称。

RAID Level

RAID级别。RAID级别决定了逻辑磁盘性能、容错能力和容量。

Disks

选择组成RAID的成员磁盘。选中Disks栏后按Enter,按SPACE选中磁盘。

Strip Size

条带大小,写在每块磁盘上的条带数据块的大小。

Capacity

逻辑磁盘的容量。

 

(4)     进入图3-24所示界面,即可查看RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。

图3-24 RAID信息界面

RSTe_RAID1.JPG

 

3.3.2  常用功能配置

1. 配置热备盘

本节介绍配置热备盘的详细操作步骤,操作过程如下。

本功能配置的为专有热备盘,热备盘只对第一个RAID卷有效,“第一个RAID卷”是指按照“Intel Virtual RAID on CPU”界面显示RAID卷的顺序从上至下第一个RAID卷。

注意

在配置了热备盘的情况下,若发生了硬盘故障导致RAID降级的情况,热备盘会自动顶替故障硬盘,RAID重建会在进入操作系统后自动进行。

 

(1)     进入RSTe配置界面,具体方法请参见3.3.1  2. 进入RSTe配置界面

(2)     如图3-25所示,在RSTe配置界面选择Mark Disks as Spare,按Enter

图3-25 RSTe配置界面

 

(3)     进入图3-26所示界面,选择要配置为热备盘的磁盘并按SPACE选中,然后按Enter,在出现的提示栏中,输入y,按Enter,完成热备盘配置。

图3-26 选择磁盘

 

(4)     在RSTe配置界面,可以看到热备盘信息,如图3-27所示。

图3-27 在RSTe配置界面查看热备盘信息

 

2. 删除RAID

本节介绍删除RAID的详细操作步骤,操作过程如下。

(1)     进入RSTe配置界面,具体方法请参见3.3.1  2. 进入RSTe配置界面

(2)     如图3-28所示,在RSTe配置界面选择Delete RAID Volume,按Enter

图3-28 RSTe配置界面

 

(3)     进入图3-29所示界面,选择待删除RAID,按Delete完成删除。

图3-29 选择待删除的RAID

 

3.4  OS下配置RAID

3.4.1  查看物理盘符

说明

·     配置软RAID时,需要将PCH Configuration下的控制器(如PCH sSATA Configuration)设置工作模式为RAID,设置后,请重新启动服务器使新工作模式生效。

·     切换存储控制卡工作模式后,原模式的系统盘可能出现异常,从而导致操作系统无法正常启动,此时可尝试重新安装操作系统,如仍无法解决,请联系技术支持。

 

通过该命令可以查询创建软RAID的物理盘符。

【命令】

lsscsi

【举例】

# 查询创建软RAID的物理盘符。

[root@localhost ~]# lsscsi

[0:0:0:0]    disk    ATA      INTEL SSDSCKKB48 1132  /dev/sda

[1:0:0:0]    disk    ATA      Micron_5300_MTFD U001  /dev/sdb

[N:0:0:1]    disk    INTEL SSDPE2KX010T8__1                     /dev/nvme0n1

上例中系统盘符为/dev/nvme0n1,本次组建软RAID的盘符为/dev/sda,/dev/sdb。

3.4.2  创建软RAID所需的容器

创建软RAID所需的容器。

【命令】

mdadm –C container_id phy_id –n num –e imsm

【参数】

container_id:容器名称

phy_id物理盘符

num物理盘数量

【举例】

# 创建名为/dev/md0的容器

[root@localhost ~]# mdadm -C /dev/md0 /dev/sda /dev/sdb -n 2 -e imsm

mdadm: container /dev/md0 prepared.

3.4.3  在创建的容器中添加软RAID

在创建的容器中添加软RAID。

【命令】

mdadm –C RAID_id container_id –n num –l RAID_level

【参数】

RAID_id:软RAID名称。

container_id:容器名称。

num物理盘数量。

RAID_levelRAID的级别。

【举例】

# 在/dev/md0容器中创建名为/dev/md/R1的软RAID1。

[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 2 -l 1

mdadm: array /dev/md/R1 started.

# 在/dev/md0容器中创建名为/dev/md/R1的软RAID0。

[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 2 -l 0

mdadm: array /dev/md/R1 started.

# 使用两块硬盘在/dev/md0容器中创建RAID0。

[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd -n 2 -e imsm

mdadm: /dev/sdc appears to contain an ext2fs file system

       size=976762584K  mtime=Wed Dec 31 19:00:00 1969

mdadm: /dev/sdd appears to contain an ext2fs file system

       size=976762584K  mtime=Wed Dec 31 19:00:00 1969

Continue creating array? y

mdadm: container /dev/md0 prepared.

[root@localhost ~]# mdadm -C /dev/md/R0 /dev/md0 -n 2 -l 0

mdadm: array /dev/md/R0 started.

[root@localhost ~]# cat /proc/mdstat

Personalities : [raid0]

md125 : active raid0 sdc[1] sdd[0]

      1953513472 blocks super external:/md0/0 128k chunks

 

md0 : inactive sdd[1](S) sdc[0](S)

      2210 blocks super external:imsm

 

md126 : active raid0 sda[1] sdb[0]

      890817536 blocks super external:/md127/0 128k chunks

 

md127 : inactive sdb[1](S) sda[0](S)

      10402 blocks super external:imsm

 

unused devices: <none>

[root@localhost ~]# mdadm -D /dev/md125

/dev/md125:

         Container : /dev/md0, member 0

        Raid Level : raid0

        Array Size : 1953513472 (1863.02 GiB 2000.40 GB)

      Raid Devices : 2

     Total Devices : 2

 

             State : clean

    Active Devices : 2

   Working Devices : 2

    Failed Devices : 0

     Spare Devices : 0

 

        Chunk Size : 128K

 

Consistency Policy : none

 

 

              UUID : cdba8f2d:aad3144b:8a4c2d03:b16742d0

    Number   Major   Minor   RaidDevice State

       0       8       48        0      active sync   /dev/sdd

       1       8       32        1      active sync   /dev/sdc

# 使用三块硬盘在/dev/md0容器中创建RAID5。

[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd /dev/sde -n 3 -e imsm

mdadm: /dev/sdc appears to contain an ext2fs file system

       size=976762584K  mtime=Wed Dec 31 19:00:00 1969

mdadm: /dev/sdd appears to contain an ext2fs file system

       size=976762584K  mtime=Wed Dec 31 19:00:00 1969

mdadm: /dev/sde appears to contain an ext2fs file system

       size=468851544K  mtime=Wed Dec 31 19:00:00 1969

Continue creating array? y

mdadm: container /dev/md0 prepared.

[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 3 -l 5

mdadm: array /dev/md/R1 started.

[root@localhost ~]# cat /proc/mdstat

Personalities : [raid0] [raid6] [raid5] [raid4]

md125 : active raid5 sde[2] sdd[1] sdc[0]

      937691136 blocks super external:/md0/0 level 5, 128k chunk, algorithm 0 [3/3] [UUU]

      [>....................]  resync =  0.3% (1692948/468845568) finish=59.7min speed=130226K/sec

 

md0 : inactive sde[2](S) sdd[1](S) sdc[0](S)

      3315 blocks super external:imsm

 

md126 : active raid0 sda[1] sdb[0]

      890817536 blocks super external:/md127/0 128k chunks

 

md127 : inactive sdb[1](S) sda[0](S)

      10402 blocks super external:imsm

 

unused devices: <none>

[root@localhost ~]# mdadm -D /dev/md125

/dev/md125:

         Container : /dev/md0, member 0

        Raid Level : raid5

        Array Size : 937691136 (894.25 GiB 960.20 GB)

     Used Dev Size : 468845568 (447.13 GiB 480.10 GB)

      Raid Devices : 3

     Total Devices : 3

 

             State : clean, resyncing

    Active Devices : 3

   Working Devices : 3

    Failed Devices : 0

     Spare Devices : 0

 

            Layout : left-asymmetric

        Chunk Size : 128K

 

Consistency Policy : resync

 

     Resync Status : 4% complete

 

 

              UUID : 62e76373:ba6fb28a:4ae39dba:bdf52d6c

    Number   Major   Minor   RaidDevice State

       0       8       32        0      active sync   /dev/sdc

       1       8       48        1      active sync   /dev/sdd

       2       8       64        2      active sync   /dev/sde

# 使用四块硬盘在/dev/md0容器中创建RAID10

[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd /dev/sde /dev/sdf -n 4 -e imsm

mdadm: /dev/sdc appears to contain an ext2fs file system

       size=976762584K  mtime=Wed Dec 31 19:00:00 1969

mdadm: /dev/sdd appears to contain an ext2fs file system

       size=976762584K  mtime=Wed Dec 31 19:00:00 1969

mdadm: /dev/sdf appears to contain an ext2fs file system

       size=3750738264K  mtime=Wed Dec 31 19:00:00 1969

Continue creating array? y

mdadm: container /dev/md0 prepared.

[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 4 -l 10

mdadm: array /dev/md/R1 started.

[root@localhost ~]# cat /proc/mdstat

Personalities : [raid0] [raid6] [raid5] [raid4] [raid10]

md125 : active raid10 sde[3] sdd[2] sdf[1] sdc[0]

      937691136 blocks super external:/md0/0 128K chunks 2 near-copies [4/4] [UUUU]

      [>....................]  resync =  0.1% (1635136/937691136) finish=76.3min speed=204392K/sec

 

md0 : inactive sdf[3](S) sde[2](S) sdd[1](S) sdc[0](S)

      4420 blocks super external:imsm

 

md126 : active raid0 sda[1] sdb[0]

      890817536 blocks super external:/md127/0 128k chunks

 

md127 : inactive sdb[1](S) sda[0](S)

      10402 blocks super external:imsm

 

unused devices: <none>

[root@localhost ~]# mdadm -D /dev/md125

/dev/md125:

         Container : /dev/md0, member 0

        Raid Level : raid10

        Array Size : 937691136 (894.25 GiB 960.20 GB)

     Used Dev Size : 468845568 (447.13 GiB 480.10 GB)

      Raid Devices : 4

     Total Devices : 4

 

             State : clean, resyncing

    Active Devices : 4

   Working Devices : 4

    Failed Devices : 0

     Spare Devices : 0

 

            Layout : near=2

        Chunk Size : 128K

 

Consistency Policy : resync

 

     Resync Status : 0% complete

 

 

              UUID : bd08e6b3:90b4c83c:498c7d20:2b33be77

    Number   Major   Minor   RaidDevice State

       0       8       32        0      active sync set-A   /dev/sdc

       1       8       80        1      active sync set-B   /dev/sdf

       2       8       48        2      active sync set-A   /dev/sdd

       3       8       64        3      active sync set-B   /dev/sde

3.4.4  查询所有软RAID状态

查询所有软RAID状态。

【命令】

cat /proc/mdstat

【举例】

# 查询所有软RAID状态。

[root@localhost ~]# cat /proc/mdstat

Personalities : [raid1]

md127 : active raid1 sda[1] sdb[0]

      468845568 blocks super external:/md0/0 [2/2] [UU]

      [>....................]  resync =  0.5% (2401792/468845568) finish=35.6min speed=218344K/sec

 

md0 : inactive sdb[1](S) sda[0](S)

      2210 blocks super external:imsm

 

unused devices: <none>

[root@localhost ~]# mdadm -D /dev/md127

/dev/md127:

         Container : /dev/md0, member 0

        Raid Level : raid1

        Array Size : 468845568 (447.13 GiB 480.10 GB)

     Used Dev Size : 468845568 (447.13 GiB 480.10 GB)

      Raid Devices : 2

     Total Devices : 2

 

             State : clean, resyncing

    Active Devices : 2

   Working Devices : 2

    Failed Devices : 0

     Spare Devices : 0

 

Consistency Policy : resync

 

     Resync Status : 1% complete

 

 

              UUID : af26b232:b11886cf:24caa39f:e04f675a

    Number   Major   Minor   RaidDevice State

       0       8       16        0      active sync   /dev/sdb

       1       8        0        1      active sync   /dev/sda

                 等待resync进程结束后,即可使用

                 [root@localhost ~]# mdadm -D /dev/md127

/dev/md127:

         Container : /dev/md0, member 0

        Raid Level : raid1

        Array Size : 468845568 (447.13 GiB 480.10 GB)

     Used Dev Size : 468845568 (447.13 GiB 480.10 GB)

      Raid Devices : 2

     Total Devices : 2

 

             State : clean

    Active Devices : 2

   Working Devices : 2

    Failed Devices : 0

     Spare Devices : 0

 

Consistency Policy : resync

 

 

              UUID : af26b232:b11886cf:24caa39f:e04f675a

    Number   Major   Minor   RaidDevice State

       0       8       16        0      active sync   /dev/sdb

       1       8        0        1      active sync   /dev/sda

3.5  Windows下创建RAID

1. 安装板载控制器的驱动

(1)     如图3-30所示,从H3C官网的“支持>软件支持>服务器”栏目下载RSTe驱动程序。

图3-30 下载驱动

 

(2)     如图3-31所示,打开控制面板下的设备管理器(Device Manager),在Other devices中找到RAID Controllers,右键单击选择Update driver。

图3-31 打开设备管理器

 

(3)     如图3-32所示,指定RSTe驱动程序所在路径,安装驱动程序。

图3-32 安装驱动

 

(4)     如图3-33所示,安装完成后,在控制面板中设备管理器的Storage controllers中可以看到刚刚安装的驱动。

图3-33 安装完成驱动

 

2. 安装RSTe板载GUI工具

(1)     如图3-34所示,从H3C官网下载VROC驱动程序。

图3-34 下载VROC驱动

 

(2)     如图3-35所示,将驱动程序中包含的SetupVROC.exe文件上传到系统中,双击进入安装界面。

图3-35 安装VROC工具

 

(3)     如图3-36所示,自行选择软件安装的位置。

图3-36 选择软件安装的位置

 

(4)     如图3-37所示,安装完成。

图3-37 完成安装

 

3. 组建软RAID

(1)     如图3-38所示,打开2. 安装RSTe板载GUI工具中安装的Intel Virtual RAID on CPU软件,选择Create Volume。

图3-38 创建软RAID

 

(2)     如图3-39所示,选择创建RAID的级别,此处以两块M.2硬盘组建RAID1为例。完成后,选择Next。

图3-39 选择RAID级别

 

(3)     如图3-40所示,填写RAID的名称,并选择硬盘。完成后,选择Next。

图3-40 设置RAID

 

(4)     如图3-41所示,完成创建,选择Create Volume。

图3-41 完成创建

 

4. 删除软RAID

(1)     如图3-42所示,选择已有的软RAID硬盘Array,单击右侧的Delete Volume。

图3-42 选择软RAID

 

(2)     如图3-43所示,在弹出的对话框中,选择Yes。

图3-43 确认删除

 

(3)     如图3-44所示,在Volumes页面中可以看到软RAID硬盘Array已被删除。

图3-44 已删除RAID

 

3.6  故障处理

关于存储控制卡的故障信息收集、故障诊断定位和故障解决方法的详细说明,请参见《H3C服务器 故障处理手册》。

3.7  兼容性

存储控制卡与服务器的兼容性关系,请使用http://www.h3c.com/cn/home/qr/default.htm?id=315查询。

3.8  驱动下载和安装

访问https://www.h3c.com/cn/BizPortal/DownLoadAccessory/DownLoadAccessoryFilt.aspx下载存储控制卡的驱动程序。驱动程序的安装步骤,请参见与驱动程序一起发布的版本说明书。

 

不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!

新华三官网
联系我们