03-第3章 RSTe板载软RAID&VROC SATA RAID
本章节下载: 03-第3章 RSTe板载软RAID&VROC SATA RAID (3.77 MB)
目 录
本节介绍位于如下设备上的RSTe板载软RAID:
· 机架服务器
· 刀片服务器
· 计算节点
Intel RSTe(Rapid Storage Technology enterprise)板载软RAID,整合了AHCI和RAID程序,主要用于Intel芯片组的磁盘管理、磁盘状态查看等应用。RSTe内嵌于主板南桥上,对使用SATA磁盘的系统提供RAID功能支持。使用多个磁盘时,可使用RAID技术,对数据进行保护,提高数据读写性能。如使用RSTe板载软RAID配置RAID,一块物理盘最多支持参与两个逻辑盘的创建,第二个逻辑盘会使用物理盘剩余全部容量,且该剩余容量不可调整。
RSTe板载软RAID在G5产品称为VROC SATA RAID。
RSTe板载软RAID支持如下两种模式:
· AHCI模式(缺省):支持NCQ(本机命令队列),能提高SATA磁盘的读写速率。系统直接使用物理磁盘来存储数据。
· RAID模式:即磁盘阵列模式,可以使用多个磁盘配置RAID,提高数据读写性能、提升数据安全性。
· 切换存储控制卡工作模式后,请重新启动服务器使新工作模式生效。
· 切换存储控制卡工作模式后,原模式的系统盘可能出现异常,从而导致操作系统无法正常启动,此时可尝试重新安装操作系统,如仍无法解决,请联系技术支持。
各RSTe板载软RAID支持的RAID级别略有不同,详细信息请参见《H3C服务器 存储控制卡功能和技术参数介绍》,各RAID级别对应的成员盘数量如表3-1所示。关于RAID级别的说明,请参见“附录B 磁盘阵列和容错方法”。
表3-1 RAID级别与磁盘数量的关系
RAID级别 |
最少磁盘数 |
最多磁盘数 |
最多故障盘数 |
RAID 0 |
2 |
硬盘背板接口支持的最大硬盘数量 |
0 |
RAID 1 |
2 |
2 |
1 |
RAID 5 |
3 |
硬盘背板接口支持的最大硬盘数量 |
1 |
RAID 10 |
4 |
4 |
2 |
· 建议用户安装没有RAID信息的硬盘。
· 请确保组建同一RAID的所有硬盘类型相同,否则会因硬盘性能不同而造成RAID性能下降或者无法创建RAID。即满足如下两点:
¡ 所有硬盘均为SATA硬盘。
¡ 所有硬盘均为HDD或SSD硬盘。
· 建议组建同一RAID的所有硬盘容量相同。当硬盘容量不同时,系统以最小容量的硬盘为准,即将所有硬盘容量都视为最小容量。
· 不建议将一个硬盘用在多个RAID中,该情况会使后期维护变得复杂,并影响RAID的性能。
本节介绍在UEFI启动模式下通过RSTe板载软RAID配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为UEFI的详细介绍,请参见BIOS用户指南中的对应章节。
不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。
本节介绍设置RSTe板载软RAID工作模式为RAID模式的操作步骤。具体操作过程如下:
(1) 将服务器上电或重启后,在BIOS启动界面,根据提示按下Delete或Esc(部分产品按Delete或F2),进入图3-1所示的BIOS Setup界面。请参考界面右下角的按键操作提示,以实现在界面中导航和修改设置。
(2) 如图3-2所示,选择Platform Configuration页签 > PCH Configuration,按Enter。
G5产品的Platform Configuration选项在BIOS Setup界面的Advanced页签中。
(3) 进入图3-3所示界面,选择对应的控制器(如PCH SATA Configuration),然后按Enter。
(4) 进入图3-4所示界面,选择Configure SATA As,按Enter,然后选择工作模式。关于RSTe板载软RAID工作模式的说明请参见3.1.1 工作模式。
(5) 配置完成后,按F4,在弹出的对话框中,选择Yes,保存当前配置并重新启动,完成存储控制卡工作模式的设置。
本节介绍进入RSTe配置界面,即进入RAID功能相关的配置入口的操作步骤。
(1) 进入BIOS Setup界面。
(2) 如图3-5所示,在BIOS Setup界面选择Advanced页签 >对应的控制器(如Intel(R) VROC sSATA Controller),按Enter。
图3-5所示界面上存在对应的控制器选项(如Intel(R) VROC sSATA Controller)的前提是控制器的工作模式已设置为RAID模式(具体方法请参见设置RSTe工作模式)。
(3) 进入图3-6所示的RSTe配置界面。
图3-6 RSTe配置界面
本节介绍配置RAID的详细操作步骤,操作过程如下。
(1) 进入RSTe配置界面,具体方法请参见2. 进入RSTe配置界面。
(2) 如图3-7所示,选择Create RAID Volume(只有控制器对应的接口连接了两个及以上的磁盘才会有该选项),按Enter。
(3) 进入图3-8所示界面,在Name、RAID Level、Select Disks、Strip Size和Capacity栏进行相应的设置(参数说明请参见表3-2),然后选择Create Volume,按Enter,完成RAID的创建。
参数 |
说明 |
Name |
RAID的名称。 |
RAID Level |
RAID级别,其决定了逻辑磁盘性能、容错能力和容量。 |
Select Disks |
选择组成RAID的成员磁盘。Select Disks栏下方显示了可用的磁盘,按Enter选择磁盘,[X]表示该磁盘已被选中。 |
Strip Size |
条带大小,写在每块磁盘上的条带数据块的大小。 |
Capacity |
逻辑磁盘的容量。 |
(4) 进入如图3-9所示界面,RAID创建完成后,会在RAID Volumes目录下显示。选择某个RAID,按Enter,可查看该RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。
本节介绍配置热备盘的详细操作步骤。
本功能配置的为专有热备盘,热备盘只对第一个RAID卷有效,“第一个RAID卷”是指按照“Intel Virtual RAID on CPU”界面显示RAID卷的顺序从上至下第一个RAID卷。
在配置了热备盘的情况下,若发生了硬盘故障导致RAID降级的情况,热备盘会自动顶替故障硬盘,RAID重建会在进入操作系统后自动进行。
(1) 进入RSTe配置界面,具体方法请参见3.2.1 2. 进入RSTe配置界面。
(2) 如图3-10所示,选择要用来配置为热备盘的磁盘,按Enter。
(3) 进入图3-11所示界面,选择“Mark as Spare”,按Enter。
(4) 进入图3-12所示界面,选择“Yes”,按Enter,完成热备盘的配置。
本节介绍删除RAID的详细操作步骤,操作过程如下。
(1) 进入RSTe配置界面,具体方法请参见3.2.1 2. 进入RSTe配置界面。
(2) 如图3-13所示,在RAID Volumes目录下选中待删除的RAID,按Enter。
(3) 进入图3-14所示RAID的信息界面,选择Delete,按Enter,即可删除该RAID。
图3-14 RAID信息界面
本节介绍定位磁盘位置的详细操作步骤,操作过程如下。
(1) 进入RSTe配置界面,具体方法请参见3.2.1 2. 进入RSTe配置界面。
(2) 如pic_3_12_new所示,选择需要定位的磁盘,按Enter。
图3-15 硬盘信息界面
(3) 进入pic_3_13_new所示界面,选择Turn Locate LED On,按Enter,即可完成硬盘的定位,具体硬盘指示灯信息请参见对应产品的用户指南。
板载软RAID在配置完RAID后,会自动初始化RAID,使其可以被操作系统使用,且使具有冗余功能的RAID中各成员盘的数据关系满足相应的RAID级别要求。
本节介绍在Legacy启动模式下通过RSTe板载软RAID配置RAID的方法。关于进入BIOS界面和设置BIOS启动模式为Legacy的详细介绍,请参见BIOS用户指南中的对应章节。
不同BIOS版本的界面有所差异,本手册仅以其中一种BIOS版本举例,操作界面请以实际情况为准。
本节介绍设置RSTe板载软RAID工作模式为RAID模式的操作步骤。具体操作过程如下:
(1) 进入BIOS Setup界面。
(2) 如图3-17所示,在BIOS Setup界面选择Platform Configuration > PCH Configuration,按Enter。
图3-17 Platform Configuration界面
(3) 进入图3-18所示界面,选择对应的控制器(如PCH SATA Configuration),按Enter。
(4) 进入图3-19所示界面,选择Configure SATA As项,按Enter,选择RSTe板载软RAID的工作模式。
本节介绍进入Legacy BIOS配置界面的步骤。进入RSTe配置界面的前提是RSTe板载软RAID的两个控制器任意一个的工作模式设置为RAID(具体方法请参见设置RSTe工作模式),且每个控制器连接的磁盘个数不少于2个。
(1) 将服务器上电或重启,在BIOS启动过程中出现图3-20所示界面后,按Ctrl+I。
图3-20 BIOS启动界面
若sSATA与SATA控制器的工作模式均设置为RAID,则在BIOS启动过程中会出现两次提示“Press <CTRL-I> to enter Configuration Utility”,依次对应sSATA与SATA控制器,请根据配置RAID所需的磁盘选择控制器。
(2) 进入图3-21所示RSTe配置界面(界面说明请参见表3-3)。请参考界面下边框的按键操作提示,以实现在界面中导航和修改设置。
图3-21 RSTe配置界面
表3-3 RSTe配置界面说明
选项 |
说明 |
MAIN MENU (主菜单) |
位于界面上侧,可以执行如下操作任务: · Create RAID Volume:配置RAID卷。 · Delete RAID Volume:删除RAID卷。 · Reset Disks to Non-RAID:清除磁盘的RAID配置信息。 · Mark Disks as Spare:配置热备盘。 · Exit:退出。 |
DISK/VOLUME INFORMATION (磁盘和卷信息) |
位于配置界面下侧,可以查看已创建的RAID和物理磁盘的概要信息。 |
本节介绍配置RAID的详细操作步骤,操作过程如下。
(1) 进入RSTe配置界面,具体方法请参见2. 进入RSTe配置界面。
(2) 如图3-22所示,在RSTe配置界面选择Create RAID Volume,按Enter。
图3-22 RSTe配置界面
(3) 进入图3-23所示界面,在Name、RAID Level、Disks、Strip Size和Capacity栏进行相应的设置(参数说明请参见表3-4),然后选择Create Volume,按Enter。
参数 |
说明 |
Name |
RAID的名称。 |
RAID Level |
RAID级别。RAID级别决定了逻辑磁盘性能、容错能力和容量。 |
Disks |
选择组成RAID的成员磁盘。选中Disks栏后按Enter,按SPACE选中磁盘。 |
Strip Size |
条带大小,写在每块磁盘上的条带数据块的大小。 |
Capacity |
逻辑磁盘的容量。 |
(4) 进入图3-24所示界面,即可查看RAID的详细信息(包括RAID名称、级别,所含磁盘信息等)。
图3-24 RAID信息界面
本节介绍配置热备盘的详细操作步骤,操作过程如下。
本功能配置的为专有热备盘,热备盘只对第一个RAID卷有效,“第一个RAID卷”是指按照“Intel Virtual RAID on CPU”界面显示RAID卷的顺序从上至下第一个RAID卷。
在配置了热备盘的情况下,若发生了硬盘故障导致RAID降级的情况,热备盘会自动顶替故障硬盘,RAID重建会在进入操作系统后自动进行。
(1) 进入RSTe配置界面,具体方法请参见3.3.1 2. 进入RSTe配置界面。
(2) 如图3-25所示,在RSTe配置界面选择Mark Disks as Spare,按Enter。
图3-25 RSTe配置界面
(3) 进入图3-26所示界面,选择要配置为热备盘的磁盘并按SPACE选中,然后按Enter,在出现的提示栏中,输入y,按Enter,完成热备盘配置。
(4) 在RSTe配置界面,可以看到热备盘信息,如图3-27所示。
图3-27 在RSTe配置界面查看热备盘信息
本节介绍删除RAID的详细操作步骤,操作过程如下。
(1) 进入RSTe配置界面,具体方法请参见3.3.1 2. 进入RSTe配置界面。
(2) 如图3-28所示,在RSTe配置界面选择Delete RAID Volume,按Enter。
图3-28 RSTe配置界面
(3) 进入图3-29所示界面,选择待删除RAID,按Delete完成删除。
· 配置软RAID时,需要将PCH Configuration下的控制器(如PCH sSATA Configuration)设置工作模式为RAID,设置后,请重新启动服务器使新工作模式生效。
· 切换存储控制卡工作模式后,原模式的系统盘可能出现异常,从而导致操作系统无法正常启动,此时可尝试重新安装操作系统,如仍无法解决,请联系技术支持。
通过该命令可以查询创建软RAID的物理盘符。
【命令】
lsscsi
【举例】
# 查询创建软RAID的物理盘符。
[root@localhost ~]# lsscsi
[0:0:0:0] disk ATA INTEL SSDSCKKB48 1132 /dev/sda
[1:0:0:0] disk ATA Micron_5300_MTFD U001 /dev/sdb
[N:0:0:1] disk INTEL SSDPE2KX010T8__1 /dev/nvme0n1
上例中系统盘符为/dev/nvme0n1,本次组建软RAID的盘符为/dev/sda,/dev/sdb。
创建软RAID所需的容器。
【命令】
mdadm –C container_id phy_id –n num –e imsm
【参数】
container_id:容器名称
phy_id:物理盘符
num:物理盘数量
【举例】
# 创建名为/dev/md0的容器
[root@localhost ~]# mdadm -C /dev/md0 /dev/sda /dev/sdb -n 2 -e imsm
mdadm: container /dev/md0 prepared.
在创建的容器中添加软RAID。
【命令】
mdadm –C RAID_id container_id –n num –l RAID_level
【参数】
RAID_id:软RAID名称。
container_id:容器名称。
num:物理盘数量。
RAID_level:软RAID的级别。
【举例】
# 在/dev/md0容器中创建名为/dev/md/R1的软RAID1。
[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 2 -l 1
mdadm: array /dev/md/R1 started.
# 在/dev/md0容器中创建名为/dev/md/R1的软RAID0。
[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 2 -l 0
mdadm: array /dev/md/R1 started.
# 使用两块硬盘在/dev/md0容器中创建RAID0。
[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd -n 2 -e imsm
mdadm: /dev/sdc appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sdd appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
Continue creating array? y
mdadm: container /dev/md0 prepared.
[root@localhost ~]# mdadm -C /dev/md/R0 /dev/md0 -n 2 -l 0
mdadm: array /dev/md/R0 started.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0]
md125 : active raid0 sdc[1] sdd[0]
1953513472 blocks super external:/md0/0 128k chunks
md0 : inactive sdd[1](S) sdc[0](S)
2210 blocks super external:imsm
md126 : active raid0 sda[1] sdb[0]
890817536 blocks super external:/md127/0 128k chunks
md127 : inactive sdb[1](S) sda[0](S)
10402 blocks super external:imsm
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md125
/dev/md125:
Container : /dev/md0, member 0
Raid Level : raid0
Array Size : 1953513472 (1863.02 GiB 2000.40 GB)
Raid Devices : 2
Total Devices : 2
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 128K
Consistency Policy : none
UUID : cdba8f2d:aad3144b:8a4c2d03:b16742d0
Number Major Minor RaidDevice State
0 8 48 0 active sync /dev/sdd
1 8 32 1 active sync /dev/sdc
# 使用三块硬盘在/dev/md0容器中创建RAID5。
[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd /dev/sde -n 3 -e imsm
mdadm: /dev/sdc appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sdd appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sde appears to contain an ext2fs file system
size=468851544K mtime=Wed Dec 31 19:00:00 1969
Continue creating array? y
mdadm: container /dev/md0 prepared.
[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 3 -l 5
mdadm: array /dev/md/R1 started.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0] [raid6] [raid5] [raid4]
md125 : active raid5 sde[2] sdd[1] sdc[0]
937691136 blocks super external:/md0/0 level 5, 128k chunk, algorithm 0 [3/3] [UUU]
[>....................] resync = 0.3% (1692948/468845568) finish=59.7min speed=130226K/sec
md0 : inactive sde[2](S) sdd[1](S) sdc[0](S)
3315 blocks super external:imsm
md126 : active raid0 sda[1] sdb[0]
890817536 blocks super external:/md127/0 128k chunks
md127 : inactive sdb[1](S) sda[0](S)
10402 blocks super external:imsm
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md125
/dev/md125:
Container : /dev/md0, member 0
Raid Level : raid5
Array Size : 937691136 (894.25 GiB 960.20 GB)
Used Dev Size : 468845568 (447.13 GiB 480.10 GB)
Raid Devices : 3
Total Devices : 3
State : clean, resyncing
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-asymmetric
Chunk Size : 128K
Consistency Policy : resync
Resync Status : 4% complete
UUID : 62e76373:ba6fb28a:4ae39dba:bdf52d6c
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
2 8 64 2 active sync /dev/sde
# 使用四块硬盘在/dev/md0容器中创建RAID10
[root@localhost ~]# mdadm -C /dev/md0 /dev/sdc /dev/sdd /dev/sde /dev/sdf -n 4 -e imsm
mdadm: /dev/sdc appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sdd appears to contain an ext2fs file system
size=976762584K mtime=Wed Dec 31 19:00:00 1969
mdadm: /dev/sdf appears to contain an ext2fs file system
size=3750738264K mtime=Wed Dec 31 19:00:00 1969
Continue creating array? y
mdadm: container /dev/md0 prepared.
[root@localhost ~]# mdadm -C /dev/md/R1 /dev/md0 -n 4 -l 10
mdadm: array /dev/md/R1 started.
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0] [raid6] [raid5] [raid4] [raid10]
md125 : active raid10 sde[3] sdd[2] sdf[1] sdc[0]
937691136 blocks super external:/md0/0 128K chunks 2 near-copies [4/4] [UUUU]
[>....................] resync = 0.1% (1635136/937691136) finish=76.3min speed=204392K/sec
md0 : inactive sdf[3](S) sde[2](S) sdd[1](S) sdc[0](S)
4420 blocks super external:imsm
md126 : active raid0 sda[1] sdb[0]
890817536 blocks super external:/md127/0 128k chunks
md127 : inactive sdb[1](S) sda[0](S)
10402 blocks super external:imsm
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md125
/dev/md125:
Container : /dev/md0, member 0
Raid Level : raid10
Array Size : 937691136 (894.25 GiB 960.20 GB)
Used Dev Size : 468845568 (447.13 GiB 480.10 GB)
Raid Devices : 4
Total Devices : 4
State : clean, resyncing
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 128K
Consistency Policy : resync
Resync Status : 0% complete
UUID : bd08e6b3:90b4c83c:498c7d20:2b33be77
Number Major Minor RaidDevice State
0 8 32 0 active sync set-A /dev/sdc
1 8 80 1 active sync set-B /dev/sdf
2 8 48 2 active sync set-A /dev/sdd
3 8 64 3 active sync set-B /dev/sde
查询所有软RAID状态。
【命令】
cat /proc/mdstat
【举例】
# 查询所有软RAID状态。
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]
md127 : active raid1 sda[1] sdb[0]
468845568 blocks super external:/md0/0 [2/2] [UU]
[>....................] resync = 0.5% (2401792/468845568) finish=35.6min speed=218344K/sec
md0 : inactive sdb[1](S) sda[0](S)
2210 blocks super external:imsm
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md127
/dev/md127:
Container : /dev/md0, member 0
Raid Level : raid1
Array Size : 468845568 (447.13 GiB 480.10 GB)
Used Dev Size : 468845568 (447.13 GiB 480.10 GB)
Raid Devices : 2
Total Devices : 2
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Resync Status : 1% complete
UUID : af26b232:b11886cf:24caa39f:e04f675a
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 0 1 active sync /dev/sda
等待resync进程结束后,即可使用
[root@localhost ~]# mdadm -D /dev/md127
/dev/md127:
Container : /dev/md0, member 0
Raid Level : raid1
Array Size : 468845568 (447.13 GiB 480.10 GB)
Used Dev Size : 468845568 (447.13 GiB 480.10 GB)
Raid Devices : 2
Total Devices : 2
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
UUID : af26b232:b11886cf:24caa39f:e04f675a
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 0 1 active sync /dev/sda
(1) 如图3-30所示,从H3C官网的“支持>软件支持>服务器”栏目下载RSTe驱动程序。
(2) 如图3-31所示,打开控制面板下的设备管理器(Device Manager),在Other devices中找到RAID Controllers,右键单击选择Update driver。
(3) 如图3-32所示,指定RSTe驱动程序所在路径,安装驱动程序。
(4) 如图3-33所示,安装完成后,在控制面板中设备管理器的Storage controllers中可以看到刚刚安装的驱动。
(1) 如图3-34所示,从H3C官网下载VROC驱动程序。
(2) 如图3-35所示,将驱动程序中包含的SetupVROC.exe文件上传到系统中,双击进入安装界面。
(3) 如图3-36所示,自行选择软件安装的位置。
(4) 如图3-37所示,安装完成。
(1) 如图3-38所示,打开2. 安装RSTe板载GUI工具中安装的Intel Virtual RAID on CPU软件,选择Create Volume。
(2) 如图3-39所示,选择创建RAID的级别,此处以两块M.2硬盘组建RAID1为例。完成后,选择Next。
(3) 如图3-40所示,填写RAID的名称,并选择硬盘。完成后,选择Next。
(4) 如图3-41所示,完成创建,选择Create Volume。
(1) 如图3-42所示,选择已有的软RAID硬盘Array,单击右侧的Delete Volume。
(2) 如图3-43所示,在弹出的对话框中,选择Yes。
(3) 如图3-44所示,在Volumes页面中可以看到软RAID硬盘Array已被删除。
关于存储控制卡的故障信息收集、故障诊断定位和故障解决方法的详细说明,请参见《H3C服务器 故障处理手册》。
存储控制卡与服务器的兼容性关系,请使用http://www.h3c.com/cn/home/qr/default.htm?id=315查询。
访问https://www.h3c.com/cn/BizPortal/DownLoadAccessory/DownLoadAccessoryFilt.aspx下载存储控制卡的驱动程序。驱动程序的安装步骤,请参见与驱动程序一起发布的版本说明书。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!