针对power重塑营商环境广东优势SVC有哪些优势

增值税发票
无理由退货
我浏览过的
您现在的位置:&
svc和svg的区别及优点有哪些
svc和svg的区别及优点有哪些
svc和svg的区别及优点有哪些 问:电抗器的作用是什么? 答:滤除电流中可能存在的较高次谐波,另外起到将变流器和电网这两个交流电压源连接起来的作用,所需电感值并不大。 问:PLC的功能 答:PLC控制部分主要是控制整个系统的运行,可靠的人机操作,对SVG控制系统实现保护功能,还可以通过以太网通讯对系统进行远程控制。 问:功率单元的组成 答:功率单元包括IGBT模块、驱动板、电力电容、阻容吸收电路以及散热器等。 问:什么是IGBT,由什么构成 答:IGBT(INSULATEDGATEBIPOLARTRANSISTOR),绝缘栅双极型功率管,是由BJT(双极型三极管)和MOS(绝缘栅型场效应管)组成的复合全控型电压驱动式电力电子器件。 问:SVG能不能进行实时监测? 答:为便于用户随时查看SVG设备运行状况,在设备侧嵌入式一体化工控机和用户监控室侧PC机上分别安装了相应的SVG监控软件实时显示系统总的工作状态和报警信息实时显示每个功率单元的直流电压和各种报警和保护信息。 问:SVG的优点 答:1.能达到SVC的所有功能; 2.补偿不受电网频率影响,不易与电网阻抗发生谐振,过载能力强,比SVC的调节速度更快运行范围更广 3.快速跟随负荷变化,系统其响应速度和动态性能大大优于SVC; 4.对无功电流和电压的控制精度比SVC更高; 5.组装式结构,扩展方便; 6.使用的电抗器和电容元件比SVC小,大大减少装置的体积和成本。 问:什么是电抗和电抗性补偿系统? 答:在电抗性补偿系统里的电抗和每步电容串联,因而形成串联谐振电路。根据需要被补偿的功率(例如,50KVAR)计算得出电容。串联谐振电路的串联谐振频率由电抗确。谐振频率一般位于在134到214赫兹之间。谐振频率必须低于可能出现的最低次谐波。如果,例如,5次谐波是系统中最小的谐波,你必须选择小于250赫兹的谐振频率。串联谐振电路在高于它的谐振频率时变为感性的,这意味着它不再可能激活任何谐振。在低于它的谐振频率时谐振电路是容性的并且能用来补偿无功功率。
更多猛料!欢迎扫描下方二维码关注土猫网官方微信( tumaowang )
&#165&35.3元
节省15.7元
&#165&239元
节省47.8元
&#165&38元
&#165&299元
节省59.8元
&#165&10.9元
&#165&127元
节省25.4元
&#165&19元
&#165&449元
节省89.8元
&#165&45元
&#165&159元
节省31.8元
&#165&6.9元
&#165&19.9元当前位置: >>
1. SVC 结构当今实施块级聚合和虚拟化主要有 2 个方法: ? ? 对称:带内设备 SAN 设备位于数据路径中,所有 I/O 数据流通过设备。SVC 使用的就是对称虚拟化。 非对称:带外设备或者基于控制器SAN 由一对或者多对 SVC 硬件节点管理,称为 cluster。对 SAN 网络进行 zone 划 分,使得 SVC 能看见存储子系统
,host 能够看见 SVC。存储控制器能在 SVC 和直接主机 访问之间共享,只要同一个 LUN 不共享。SVC 能连接至多 4 个 SAN fabric。1 SVC 集群节点连接到 SAN 网络,将 logical disk(virtual disk)或者卷呈现 给主机。这些卷从存储子系统的 LUNs(Mdisk)创建。上图中有 2 个 zone: Host zone,host 能够看见 SVC 节点 存储 zone,SVC 节点能够看见存储子系统的 LUNsHost 不允许直接操作 LUNs,所有数据传送都是通过 SVC 节点。1.1. SVC 组件节点 每个 SVC 硬件单元称为节点,节点为卷,缓存,copy 服务等功能提供虚拟化。SVC 节点成对部署, 多对组成一个 cluster。 一个 cluster 可以由 1 到 4 个 SVC 节点对组成。 Cluster 中其中一个节点称为配置节点,配置节点为 cluster 管理配置,如果这个节点 失效,cluster 将选择一个新的节点成为配置节点。因为节点是成对安装,形成一个冗余 配置。I/O Groups 每对 SVC 节点也称为 I/O Group。一个 SVC cluster 能有 1 到 4 个 I/O 组。呈现 给主机的卷是由 cluster 的一个 I/O 组提供。当服务器对自己的某个卷进行 I/O 操作, 该卷的所有 I/O 定向到一个指定的 I/O 组,且由 I/O 组的相同节点处理,这个节点被称为 该卷的优先节点。2 I/O 组的 2 个节点都作为各自卷的优先节点。每个 I/O 组至多 2048 个卷,2 个节点 都是作为互备节点,如果需要的话,一个节点可以接管搭档节点的 I/O 负载。因此, 在 SVC 环境中,对一个卷的 I/O 处理能在 I/O 组的 2 个节点之间切换,在 host 中使用多路径软 件来处理 failover。 SVC I/O 组连接到 SAN 网络,因此所有应用服务器能从 I/O 组访问卷。每个 I/O 组 能定义至多 256 个服务器。如果需要的话,在一个 SVC cluster 中服务器能映射到多个 I/O 组,因此能够访问各个 I/O 组的卷。在 I/O 组之间可以移动卷来重新分布负载,移动 过程中不能同时进行主机 I/O,将需要一个简短的中断来重新映射主机。Cluster Cluster 由 1 到 4 个 I/O 组组成。每个 cluster 能支持的卷至多 8192 个,或者 每个 cluster 支持的最多 Mdisk 为 32PB。 所有配置, 监控和服务管理都是在 cluster 级别进行, 配置设置值被复制到 cluster 中的所有节点。为了完成以上任务需要为 cluster 设置一个管理 IP 地址。MDisks SVC cluster 和 I/O 组看到底层存储子系统提供的 LUNs 称为 Mdisks,Host 看不 见 MDisk,看到的是逻辑盘,称为 virtual disk 或者卷。MDisk 存放在存储池中,在 池中划分成 extent,extent 大小从 16M 到 8192M,由 SVC 管理员定义。一个 MDisk 最大为 1PB,一个 cluster 支持多达 4096 个 MDisk,MDisk 在任何时候都是下面 3 模 式中之一: ? ? ? Unmanaged MDisk Unmanaged MDisk 不是任何存储池的成员, SVC 不会写数据到 unmanaged MDisk。 Managed MDisk Managed 模式 MDisk 是存储池的成员,划分成 extent,卷是由 extent 组成。 Image mode MDisk Image 模式提供从 MDisk 到卷的直接块对块的转换。Image 模式的使用场景: Image 模式可以虚拟化已经包含数据的 Mdisk,数据是由直连存储的 host 写入 而不是通过 SVC。使用 image 模式可以进行数据迁移。 Image 模式可以允许 SVC 卷使用由底层存储提供的本地 copy 服务功能。为了避 免数据丢失,禁用卷的 SVC 缓存 通过 image 模式可以从 SVC 中迁移数据到非 SVC 环境,即 host 直接连接存储。每个 MDisk 有一个在线路径数,表示访问 MDisk 的节点数量。Maximum count 是 cluster 检测到最大路径数,current count 为当时 cluster 检测到的数量。Quorum disk3 Quorum disk 是一个含有 cluster 专用保留区域的 MDisk。当发生 SAN 故障后 cluster 中仍然有一半节点可用,此时 Cluster 使用 quorum disk to break a tie。Disk tier 由于 SVC cluster 的 Mdisk 所在的 disk 或 RAID 类型不同, MDISK 可能有各种 属性。因此每个 Mdisk 有个存储层属性,默认为 generic_hdd。从 SVC V6.1 对于 SSD 有个新的层属性 generic_ssd。Storage pool 一个存储池可以至多 128 个 MDisk 组成,一个 cluster 能管理 128 个存储池。池 大小可以动态改变,一个 MDisk 只能是一个存储池的成员,image mode 卷除外。存储池的每个 Mdisk 划分成一定数量的 extent,extent 大小在存储池创建时由管 理员决定,以后不能修改。Extent 大小在 16MB 到 8GB 之间。 一个 cluster 中的所有存储池最好使用相同的 extent 大小, 这是在 2 个存储池之间 进行卷迁移的首要条件。如果存储池的 extent 大小不同,必须使用卷镜像来 copy 卷。一 个 cluster 中的 extent 数量最多为 2^22=4 百万, 因此 SVC 集群的总容量是基于 extent 的大小,如下表所示:4 1.2. Volume卷是 SVC 提供给 host 的逻辑盘。 有 3 中类型的卷: striped, sequential, image, 这些类型是由存储池中 extent 的分配方式决定。 ? ? ? Striped 卷的 extent 是存储池中以 round_robin 方式从每个 Mdisk 中分配 Sequential 卷的 extent 是连续的从 Mdisk 中分配 Image 模式是一对一的 extent 映射一个卷最大尺寸为 256TB,一个 SVC 集群支持高达 8192 个卷。卷有以下属性: ? ? ? ? 卷可以创建和删除 卷可以 resize(扩展或收缩) 卷的 extent 可以在运行时迁移到另外的 MDisk 或者存储池 卷可以以全分配或者 thin-provisioned 方式创建,这 2 个模式在运行时可以互相 转换5 ? ? ?卷可以存放在多个存储池(mirror) 卷可以进行长距离的同步或者异步镜像 卷可以使用 flash copy 卷有 2 个模式: image mode 和 managed mode, 对于 managed 模式卷使用 striped和 sequential 方式。1.2.1. Managed mode volume每个卷的 extent 映射到一个 Mdisk 的 extent。Figure2-6 显示一个卷由 V0 到 V7 的 extent 组成,每个 extent 映射到 Mdisk A,B,C 的 extent,由 Mapping table 来存储映射关系。 存储池中 extent 分配算法: 如果存储池由不止一个 MDisk 组成, 那么在进行 extent 分配时候采用 round-robin 算法;如果其中有一个 MDisk 没有剩余 extent 时,在轮到 这个 MDisk 的时候 round-robin 算法会跳到下一个有空余 extent 的 MDisk。 当创建一个新卷时,分配给卷的 extent 的第一个 Mdisk 采用伪随机方式,而不是简 单的采用 round_robin 来选择下一个 Mdisk。由于 round_robin 算法的“striping effect”,可能导致大量卷的第一个 extent 位于同一个 Mdisk,进而降低性能。6 1.2.2. Cache mode volume在正常条件下,卷的读写数据是存放在优点节点的缓存中,同时将写数据镜像 copy 到同一 I/O 组的搭档节点。创建卷时也可以指定不使用缓存,这样 I/O 操作直接传送到存 储子系统。 Having cache-disabled volumes makes it possible to use the native copy services in the underlying RAID array controller for MDisks (LUNs) that are used as SVC image mode volumes. Using SVC copy services rather than the underlying disk controller copy services gives better results.1.2.3. Mirrored volume镜像卷提供了一个简单的 RAID1 功能,也就是一个卷能有 2 份物理数据,因此其中一 份数据的 MDisk 失效而不可访问时,卷仍然在线,可以访问。 镜像卷的 2 个 copies 可以分布在不同的存储池或使用 image 模式 copy。镜像卷可 以加入 Flash Copy,Remote Copy。对已有一个 copy 的卷,可以再加第二个 copy,或者从已经有 2 个 copy 的卷中移除 一个。 一个新创建的, 没有格式化的 2-copy 卷起始位于非同步状态, 主 COPY 定义为 fresh, 次 copy 为 stale 。 同 步 过 程 将 更 新 次 copy 直 到 全 同 步 , 这 个 过 程 使 用 默 认 的 synchronization rate 或者创建/修改卷时指定的一个 rate。镜像卷的同步状态记录7 在 quorum disk 中。 如果 2-copy 镜像卷创建时指定 format 参数,2 个 copies 并行方式格式化,当 2 个 copies 的同步操作完成卷就处于在线状态。 如果镜像卷扩展或收缩,所有的 copies 也同样扩展或收缩。 如果用户不要求读稳定性,可以选择“no synchronization”选项。 对于不处于同步状态的 copies ,为了最小化重新同步的时间要求,只有 256KB grains that have been written to since the synchronization was lost are copied。这个方式称为增量同步,只有修改过的 grains 需要 copy 来恢复同步。 重要: 一个非镜像卷可以从一个地方迁移到另外一个地方, 只需简在目的地增加一个 copy, 等 2 个 copy 同步完成,移除原来的 copy0,这个操作可以随时停止。2 个 copy 能放在不 同 extent 大小的存储池。 对于 2-copy 卷,一个称为 primary copy。如果主 copy 可用且同步的,对卷的读 是定位在主 copy 上,用户在创建卷时可以选择主 copy,或者以后修改。将主 copy 放在 高性能控制器上将提高卷的读性能。 如果一个 copy 位于低性能控制器上, 写性能是受限的, 因为只有 2 个 copy 的写数据都完成才认为写成功。 镜像卷需要检查是否所有 copy 是一致的, 如果当从一个 copy 进行读数据遇到介质错 误,它将会使用其他 copy 上数据进行修复,这个一致性检查是与主机 I/O 异步执行的。 镜像卷以每 256KB 1bit 的速率消耗位图空间,也就是 1MB 位图空间支持 2TB 镜像 卷。位图空间默认分配为 20MB,支持 40TB 镜像卷。如果所有 512MB 可变位图空间全部分 配给镜像卷,可以支持 1PB 镜像卷。 重要:如果没有 quorum disk 可用,镜像卷会离线,因为镜像卷的同步状态是记录在 quorum disk 中的。1.2.4. Image mode volumesImage mode volumes 用于将直接映射给服务器的 LUNs 迁移到 SVC 中。Image 模 式使卷和 MDisk 间有个一对一的映射。 Image 模式卷有一个最小尺寸,为一个数据块 (512bytes) ,且总是占据至少一个 extent。 一个 image 模式 MDisk 只能映射到一个 image 模式卷,卷的大小必须等于 image 模式 MDisk 的大小。当创建 image 模式卷时,指定的 MDisk 必须是“unmanaged”模式 且 不 是 存 储 池 的 成 员 。 在 创 建 完 image 模 式 卷 后 MDisk 成 为 存 储 池 ( Storage pool_IMG_xxx)的成员。 SVC 支持 managed 模式卷转化为 image 模式卷,反之亦然。 一个 image 模式 MDisk 总是与一个卷相关联,如果 image 模式 MDisk 不是 MDisk Group 的 extent 大小的整数倍,那么最后一个 extent 将是部分的。Image 模式卷不能8 作为 quorum disk,不会有任何 SVC 元数据 extent 分配给它。 将 image 模式 MDisk 放在一个专用存储池,使用一个专用的名称(例如 Storage pool_IMG_xxx) 。所有 SVC 的 copy 服务功能可以应用于 image 模式卷。1.2.5. Thin-provisioned volumes卷可以配置为 thin-provisioned 或全分配。 thin-provisioned 卷的读写与全分 配方式相同。当创建 thin-provisioned 卷时,需要制定 2 个参数:从存储池分配给卷 的实际物理能力和主机的可用虚拟能力。全分配卷的这 2 个值是相同的。 实际能力决定了初次分配给卷的 MDisk extent 的数量;虚拟能力是主机服务器和 SVC 组件(例如 Flash Copy,Cache,Remote Copy)看到的大小。实际能力用于存储 用户数据和元数据,可以指定为一个绝对值或者虚拟能力的百分比。 当创建 thin-provisioned 卷时,实际能力的一小部分用来存放初始元数据。卷的 颗粒度为 grain,grain 大小为 32k,64k,128k,256k。grain 用来存放卷的元数据 和用户数据。写 I/O 到 thin-provisioned 卷的 grain,且 grain 之前没有被写过数 据, 那么 grain 将会存储元数据和用户数据; 写 I/O 到 thin-provisioned 卷的 grain, 且 grain 之前写过数据,则更新 grain 中数据。9 每个 grain 需要存放元数据,意味着 I/O 效率将比全分配方式的卷低。元数据不会超 过用户数据的 0.1%。 Thin-provisioned volume format:Thin-provisioned 卷不需要格式化。当一个 写 I/O 需要进行空间分配时,grain 在使用前先清零。 如果卷不是 image 模式,thin-provisioned 卷的实际能力可以修改。增加实际能 力使卷存放更多的数据和元数据。 如果初始分配太多的实际能力, 实际能力可以通过减少来 释放空余存储。 Thin-provisioned 卷可以配置为 autoextend,使 SVC 能够随着卷的空间需求, 自动给卷增加一定量的额外实际能力。 自动扩展会维护一定量的没有使用的实际能力, 这个 量称为 contingency capacity。在卷创建时 contingency capacity 设置为实际能 力大小,如果用户修改实际能力,contingency capacity 重置为已使用能力与实际能 力之间。对于没有使用自动扩展特性的卷,contingency capacity 为 0。 自动扩展不会使实际能力扩展超过虚拟能力。实际能力可以手工扩展到 more than the maximum that is required by the current virtual capacity , contingency capacity 会重新计算。 为了支持 thin-provisioned 卷的自动扩展,存储池可配置能力预警值。当存储池 的已使用能力超过 warning capacity,产生一个告警事件。例如指定预警值为 80%,当 空余能力为 20%时将产生告警事件。 Thin-provisioned 卷能转换为全分配卷,反之亦然。 Thin-provisioned 卷性能: Thin-provisioned 卷需要额外的 I/O 操作来读写元数据, 使得 SVC 节点产生额外的负载。因此,对高性能应用或高 I/O 写的负载避免使用10 thin-provisioned 卷。1.3. SVC Cluster集群是一组共同提供资源给用户的服务器集合,客户不会感知集群的底层物理硬件。 如果集群中的一个节点失效或者太忙而不能响应请求时,请求会透明的传送给其他可用节 点。 SVC 集群是一组可以高达 8 个节点的集合,管理员可以单点控制这些节点来进行配置 和服务管理。 所有活动节点知道它们是集群的成员,这是很重要的一点。特别是在 split-brain 场景中, 当个别节点失去与其他节点的联系时, 有一个可靠的机制来决定哪些节点组成活动 的集群。最差的场景就是一个集群分裂为 2 个单独的集群。 在 SVC 集群内,voting set 和 quorum disk 负责保持集群的完整性。如果有节点 加入集群,它们加入到 voting set;如果有节点移除,从 voting set 中移除。SVC 集 群实施一个动态 quorum,在丢失一些节点后,如果集群能继续运行,集群将调整 quorum 需求,使得以后可以容忍节点失效。 在一个集群中的 lowest Node Unique ID 成为 boss 节点,由它决定是否节点能 组成集群操作。这个节点最多 2 个集群 IP 地址来进行集群的管理。1.3.1. Quorum disk集群使用 quorum disk 有 2 个目的: ? ? 当集群遇到 SAN 错误,还有一半节点可用时,用作 tie breaker 保存集群配置数据的 copy Quorum disk 需要 256M 以上保留空间。在一个集群中只有一个活动 quorum disk, 然而有 3 个 MDisk 作为 quorum disk 的候选者。集群从 quorum disk 候选者池中自动 选择活动 quorum disk。 当 MDisk 加入到 SVC 集群中,SVC 检查 MDisk 是否能用作 quorum disk,如果满 足要求,SVC 将加入集群的前 3 个 MDisk 用作 quorum disk 候选者,其中一个作为活动 的 quorum disk。 备注:成为 quorum disk 的 LUN 必须满足以下条件: ? ? 存储子系统提供的 LUN 必须支持 quorum disk 使用 svctask chcontroller -allow_quorum yes 命令来手工允许成为 quorum disk11 ? ? ?必须是 managed 模式 必须有足够的空余 extent 来存放集群信息 集群内节点必须都能看见如果可能的话,SVC 将把 quorum disk 候选者放在不同的存储子系统上。在 quorum disk 初始分配完成后通过 svcinfo lsquorum 命令查看。 当 quorum disk 选定以后就固定了,其他 MDisk 要成为 quorum disk 需要满足以 下条件之一: ? ? ? 当管理员使用命令 svctask setquorum 来指定一个 MDisk 成为 quorum disk 当 quorum disk 从存储池删除 当 quorum disk 变更为 image mode备注:没有 quorum disk 的 SVC 集群严重影响操作,缺少可用的 quorum disk 来存储 元数据会导致无法迁移。另外没有可用的 quorum disk 导致镜像卷离线,因为镜像卷的 同步状态记录在 quorum disk 上。在集群的正常运行期间,节点能够互相通信。如果一个节点空闲,那就会发送一个心跳 信号来确保与集群的连通性。 如果一个节点失效, 那么这个节点上的负载全部被其他节点托 管,直到这个节点重启来重新加入集群。 当节点分布在不同 sites,集群节点配置如下: ? ? ? Site1 包含一半 SVC 集群节点和一个 quorum disk 候选者 Site2 包含一半 SVC 集群节点和一个 quorum disk 候选者 Site3 包含一个激活的 quorum disk尽量将 Quorum disk 分布在不同的存储子系统中。即使只有一个存储子系统,也尽 量将 Quorum disk 分布于不同的存储池,利用不同存储池来自不同阵列的分配方式,使 Quorum disk 位于不同的阵列,防止因为阵列失效导致所有 3 个 Quorum disk 都失效。 Quorum disk 查看:svcinfo lsquorumQuorum disk 移动:svctask chquorum12 如图所示 quorum index2 对应的 quorum disk 从 ITSO-4700 的 MDisk2 移动到 了 ITSO-XIV 的 MDisk9。1.3.2. Cache存储缓存的主要目的就是提高 I/O 响应时间。2145-CF8 节点配合 SVC6.1 提供每个 节点 24GB 内存,每个 I/O 组 48GB。节点内存能用于读或写缓存,写缓存的大小限制为 12GB,根据节点的 I/O 情况,24GB 内存能够全部用于读缓存。 缓存分配是以 4KB segment 为单位。 当服务器进行写数据时, 优先节点先保存数据在自己的缓存中, 然后 copy 到备用节点, copy 完成之后才通知服务器写操作完成。 如果卷在最近 2 分钟内没有接受到写更新,则自动将所有修改的数据 destaged to disk。 如果 I/O 组的一个节点失效,备用节点将清空它的写缓存,运行在操作模式,也就是 write-through 模式。运行在 write-through 模式的节点直接写数据到磁盘,然后发 送一个 I/O 完成状态信息到服务器。运行在这个模式下 I/O 组的性能降低。 写缓存是以存储池进行划分的,这个特性限制了集群内一个存储池能够分配的最大写 缓存量。下表显示了集群中单个存储池使用的写缓存上限:当外部电源中断时, 物理内存被 copy 到节点内置盘上的文件中, 这样在电源恢复供应 时能恢复数据。不间断电源确保足够的电力来完成这样的 dump 操作,在 dump 内存数据到 盘上后,SVC 节点关闭。13 2. SVC 计划和配置2.1. 逻辑设计 2.1.1. SAN ZoningSAN fabric 可以配置 2 个或至多 8 个 SVC 节点,组成 SVC 集群。SVC 节点,存储 子系统,服务器连接到 SAN fabric,在 SAN fabric 中进行 zone 划分,使得 SVC 能看 见各自节点和存储子系统, 服务器能看见 SVC。 服务器是不能直接看见或操作存储子系统的 LUNs。在一个集群内的 SVC 节点必须能够互相通信,且能够看见集群内所有存储。 SVC6.1 支持 2Gbps,4Gbps,8Gbps 的 FC fabric。在一个存在多种速度交换机 的 fabric 中,最好是将 SVC 和存储子系统连接到最高速度的交换机。 SVC 集群中的所有 SVC 节点连接到同一个 SAN,由 SVC 将卷呈现给主机,这些卷从存 储池创建,存储池是由存储子系统提供的 MDisk 组成。在 SAN 网络中必须有 3 个 zone: ? ? ? SVC 集群 zone 主机 zone:host 访问 SVC 集群中的存储 存储 zone:SVC 访问存储子系统zone 配置遵循以下指南:14 ? ? ? ?LUNs(MDisk)必须是单个集群独占访问,不能与其他 SVC 集群共享 在一个集群内的所有节点 port 必须以相同的速度运行 ISLs 不能用于 SVC 集群内节点之间通信或者节点对存储控制器的访问 相似主机的 HBA 卡或者同一主机的相似 HBA 卡应该划分在各自的 zone 中。例如,如 果有 AIX 和 microsoft 主机,那需要划分在各自 zone。这是一个 SAN 操作性问题, 不是专门针对 SVC 的。?Host zone 只能包含一个 initiator(host 端的 HBA 卡) ,SVC 节点口则根据需要进行配置。 可以使用 svcinfo lsfabric 命令生成报告,显示节点和存储控制器,主机的连接。 Attention: ? 在集群内的节点间采用 ISL 通信对集群有负面影响,由于 SVC 集群需要依赖这些链路 维护心跳和集群管理服务 ? 在 SVC 节点访问存储之间使用 ISL 会导致 port congestion,影响 SAN 的性能和 可靠性 ? 集群间通信使用不同的 port speed 导致 port congestion,因此不支持混合的 port speed2.1.2. SVC 集群配置为了确保 SVC 的高可用性,在设计 SVC 的 SAN 网络时考虑以下事项: ? 集群中所有节点必须位于相同的 LAN 网段。如果计划用每个节点的第二个网口,则可 以配置与网口 1 不同的 LAN 网段。也就是所有节点的网口 1 在一个网段,网口 2 在另 外网段 ? 为了保证应用的连续性,SVC 节点总是成对部署,如果一个节点失效,剩下节点运行在 降级模式,但是仍然是有效配置。剩下节点运行在 write-through 模式,意味着数 据直接写到存储子系统(写缓存不可用) 。 ? ? ? ? 在 SVC 节点与交换机之间采用光纤连接,运行在 2/4/8Gbps,根据 SVC 和交换机硬 件决定。SVC 节点是 auto-negotiate SVC 节点 port 必须连接到 FC fabric,SVC 与 host 或存储子系统的直连是不支持 的 2 个 SVC 集群不能访问存储子系统中相同的 LUN SVC 使用 3 个 MDisk 用作 quorum disk,最好是每个 quorum disk 位于不同的存 储子系统。分离集群配置 ? ? 分离集群配置的 I/O 组的 2 个节点之间的最大距离为 10KM 使用分离集群配置结合卷镜像可以实现高可用性。在镜像卷配置后使用 svcinfo15 lscontrollerdependentvdisks 验证位于不同存储子系统的镜像卷 ? 当实施分离集群配置时,quorum disk 的分配可以采用如下配置: Site1 包含一半 SVC 集群节点和一个 quorum disk 候选者 Site2 包含一半 SVC 集群节点和一个 quorum disk 候选者 Site3 包含一个激活的 quorum disk备注:在同一 I/O 组内节点间的 ISL 是不支持的,不管是否采用分离集群配置。2.1.3. 存储池配置SVC 中的 MDisk 来自于存储子系统的 LUNs,可以是 managed 或 unmanaged 模式, managed MDisk 表示已经分配给存储池: ? ? ? ? 存储池是 MDisk 的集合,一个 MDisk 只能属于一个存储池 SVC 支持 128 个存储池 存储池没有对卷的限制,然而一个 I/O 组支持的卷为 2048,集群为 8192 卷只属于一个存储池,除非卷在存储池之间进行镜像SVC 支持的 extent 大小为 16, 32, 64, 128, 256, 512, ,
MB,在 SVC6.1 才支持 4096 和 8192,当创建存储池是需指定 extent 大小,不能 进行修改。如果需要修改 extent 大小,只能删除存储池,重新创建。在存储池中的所有 MDisk 都有相同的 extent 大小。存储池配置考虑: ? 集群最大存储能力是与 extent size 有关: 16MB extent=64TB, 强烈建议使用 128/256MB。 IBM Storage Performance Council (SPC)基准值为 256MB 选择 extent 大小,所有的存储池使用相同的 extent 对于不同 extent 大小的存储池是不能进行卷迁移的,除非使用卷镜像来创建卷 的 copy ? 存储池可靠性,可用性,服务性(RAS)考虑 如果确定一个 host 的卷只位于一个存储池的话,可以创建多个存储池,使得不同 的 host 访问不同的存储池。如果存储池离线,则只影响部分 host。 如果不需隔离主机与存储池, 可以创建一个大存储池。 创建一个大存储池前提是物 理盘有相同的大小,速度和 RAID 级别 如果有一个 MDisk 不可用,存储池就会离线,哪怕 MDisk 上没有数据。不要把所 有 MDisk 放入一个存储池16 ? ?至少创建一个单独的存储池,用于 image 模式卷 确保提供给 SVC 的 LUNs 没有任何主机 PR 属性存储池性能考虑 如果需要隔离不同的工作负载,则可以创建多个存储池。 存储池和 SVC 缓存关系2.1.4. Virtual disk 配置一个 vdisk(卷)是存储池的一员。当创建卷时,首先确定想要达到的性能,可用性 和成本要求,然后选择存储池。 ? 存储池中定义卷是由存储子系统的哪个 MDisk 提供 ? I/O 组定义哪个 SVC 节点提供对卷的 I/O 访问 卷的分配是基于以下考虑: ? ? ? 将卷均匀的分布在 I/O 组和节点之间来优化性能 选择存储池来满足对卷的性能要求 I/O 组考虑 创建卷时,卷与 I/O 组的一个节点关联。默认情况下,每次创建新卷时,采用 round-robin 算法来关联节点,也可以指定一个优先访问节点。 即使每个卷有 8 个路径,所有的 I/O 流量只流向优先节点,也就是只有 4 个路径 是被 SDD 真正使用的,其他 4 个路径只是作为优先节点失效后才使用或者 concurrent code upgrade is running ? 创建 image 模式卷 当 Mdisk 上已经有数据时可以使用 image 模式卷。当创建 image 模式卷时,它 直接与所在的 MDisk 关联,因此卷的 logical block address(LBA)=MDisk LBA。Image 模式卷的大小默认等于 MDisk 大小 当创建 image 模式 disk 时,MDisk 必须是 unmanaged 模式,不属于任何存储 池,且大小不能为 0。Image mode volumes can be created in sizes with a minimum granularity of 512 bytes,and they must be at least one block (512 bytes) in size。 ? 创建连续或条带策略的 managed 模式卷 当创建连续或条带策略的 managed 模式卷时,必须确保卷所在的 MDisk 的 extent 是没有数据的,且这些 MDisk 集大小是大于等于卷的大小。在 MDisk 上可能有足够的 extents,但是没有足够大的连续块来满足要求。 ? Thin-provisioned 卷考虑 当创建 Thin-provisioned 卷,需要理解应用程序对卷的利用率17 -对 Thin-provisioned 卷有 2 种操作模式 ? ? 自动扩展卷,应用程序可能导致卷自动扩展直到消耗完存储池的所有空间。 非自动扩展卷有固定量的存储, 用户必须监控卷来分配额外的能力。 应用程序 至多只是将卷使用完全。-根据实际能力的初始大小,设置 grain 大小和告警线。如果卷离线,可能是缺少 可用的物理存储来进行自动扩展, 也可能是非自动扩展卷没有及时进行卷扩展, 这 样数据保留在缓存中,产生一定的危险。-Grain 分配单元大小可以为 32KB,64KB,128KB,256KB, 一个小的 grain size 能够充分利用空间,但是会产生一个大的 directory map,导致性能下降-Thin-provisioned 卷由于需要 directory 访问故需要更多的 I/O。 对于随机 70%读 30%写的负载,一个 Thin-provisioned 卷将需要为每个用户 I/O 产生 大约一个 directory I/O,性能比普通卷的写数据降低一半-Directory 是 two-way write-back-cached (just like the SVC fastwrite cache),因此个别应用程序可以提高性能-Thin-provisioned 卷需要更多的 CPU 处理 Thin-provisioned 卷有个特性称为“zero detect” ,当使用卷镜像来转换一 个全分配卷为 Thin-provisioned 卷时能够回收没有使用的已分配空间?卷镜像指南 创建 2 个单独的存储池来为镜像卷分配空间 镜像卷的存储池最好来自不同的存储子系统 如果可能,使用具有相同属性的 MDisk 组成的存储池,否则卷性能会受到性能差 的 MDisk 的影响2.1.5. Host mapping(LUN masking)对于主机和应用服务器,按照以下指南: ? 对于使用 2 个 HBA 的主机对于同一个 LUN 能看见多个路径,使用 zone 配置来限制路 径数在 2-8 个之间,最好是 4 个路径。SVC 支持的多路径软件为 SDD,MPIO 等,参见 http://www-/systems/storage/software/virtualization/ svc/interop.html ? 从主机到 I/O 组节点之间路径不能超过 8 个,即使 8 个路径并不是多路径软件的最大 值(SDD 支持 32 个路径) 。为了限制路径数, the fabrics must be zoned so that each host FC port is zoned to no more than two ports from each SVC node in the I/O Group that owns the volume。 Notes: Following is a list of the suggested number of paths per volume: (n+118 redundancy) With 2 HBA ports: zone HBA ports to SVC ports 1 to 2 for a total of 4 pathsWith 4 HBA ports: zone HBA ports to SVC ports 1 to 1 for a total of 4 paths Optional: (n+2 redundancy) ? ? With 4 HBA ports: zone HBA ports to SVC ports 1 to 2 for a total of 8 paths如果主机有多个 HBA 口,每个口必须 zoned to a separate set of SVC ports to maximize high availability and performance 配置超过 256 个主机时,需要在 SVC 中配置主机到 I/O 组的映射关系。每个 I/O 组 支持最多 256 个主机,因此在一个 8 节点 SVC 集群中最多支持 1024 个主机。?Port masking,使用 prot mask 来控制 host 能访问的节点 port。3. 初始化集群配置在 SVC 硬件安装完成后进行 SVC 集群的初始化配置: 1. 选择一个节点为集群中成员,进行初始化配置 2. 在硬件面板上使用 up 和 down 按钮,直到显示 Action 3. 按下 select 按钮 4. 使用 up 和 down 按钮,直到显示 New Cluster IPv4? 5. 按下 select 按钮来创建新集群 6. 再次按下 select 按钮来修改 IP 7. 使用 up 和 down 按钮来修改 IP 地址的第一段 备注:对于 IPv4,按住 up 和 down 按钮是以 10 为单位来增加和减少。 8. 使用 right 按钮移动到下一段,同样使用 up 和 down 按钮来设置 9. 重复步骤 7 来完成 IP 地址设置 10. 当 IP 地址设置完成,按下 select 11. 按下 right 按钮,显示为 IPv4 Subnet: 12. 按下 select 13. 设置掩码,与 IP 地址设置同样操作 14. 当掩码设置完成,按下 select 15. 按下 right 按钮,显示为 IPv4 Gateway: 16. 按下 select 17. 设置网关,与 IP 地址设置同样操作 18. 当网关设置完成,按下 select19 19. 使用 right 和 left 按钮来查看 IP 设置。在设置完成后,按下 right 和 left 按钮 直到显示 Confirm Created?,按下 select 20. 在完成以上配置后,在显示面板上显示 Cluster:显示在第一行 一个临时的系统分配的集群名称显示在第二行在完成集群初始化配置后,可以使用管理界面 GUI 来加节点到集群中。 集群配置向导: 1. 在浏览器输入初始化配置中 IP 地址 http://svcclusteripddress/ 2. 出现欢迎界面,输入默认 superuser 密码:passw0ord 3. 选择接受协议,NEXT4. 在 Name,Date,and Time 窗口设置 集群名称:大小写敏感,不能以数字开头 时区设置 日期设置,如果使用 NTP 服务器,选择“Set NTP Server IP Address”来 输入 NTP 服务器的 IP 地址20 5. 出现“Change Date and Time Settings”窗口6. 出现“System License”窗口,输入授予权限的能力,NEXT21 7. 出现“Configure Email Event Notification”,如果不配置,直接 NEXT8. 此时可以加节点到集群中。22 点击一个空节点位置,设置节点名称,点击 Add Node:弹出窗口如下:OK23 在所有节点都加入集群中后点击 Finish 9. 集群更新操作窗口10. 至此集群创建完成,可以进行集群的管理。 配置服务 IP 地址: 配置这个 IP 地址可以在节点上使用 Service Assistant Tool,如果节点有问题, 可以通过服务 IP 地址来查看详细状态和错误报告,管理节点服务。 1. 选择 Configuration→Network 2. 选择 Service IP addresses24 3. 选择节点,点击服务 IP 地址设置端口4. 输入 IP 地址,网关和掩码,点击 OK 来完成设置。4. Host configuration4.1. SVC 设置 4.1.1. FC 和 SAN 设置Host 使用 Fibre Channel (FC)来连接 SAN 交换机而不是直接连接到 SVC 节点。为了保 证高可用性,使用 2 个冗余的 SAN fabric,因此每个 host 至少 2 个 HBA 卡,每个 HBA 卡连接到其中一个 fabric 的 SAN 交换机(假定每个 HBA 卡为单口) 。 在 SAN fabric 中 SVC 支持 3 个 interswitch link(ISL) ,意味着服务器到 SVC25 能跨越 5 个 FC 链路,采用长波 SFPs 的话每个链路可以达到 10KM。SVC 节点必须采用短 波 SFPs,因此与 SAN 交换机距离最大为 300m,如下图:如图所示,SVC 节点 1 与 host2 距离超过 40KM。 对于高性能服务器, 原则上避免 ISL hops, 也就是将服务器与 SVC 连接到相同的 SAN 交换机。当连接服务器到 SVC 按照以下规则: ? 每个 I/O 组至多 256 个 host,每个集群为 1024 个 ? 每个 I/O 组至多 512 个唯一的主机 WWPN 号 Host zone 配置规则: ? 同质 HBA port zones 主机 zone 配置中,在一个 zone 中必须包含相似的 HBA 卡和相似的主机类型。例如 AIX 和 NT 服务器必须在各自单独的 zone,Qlogic 和 Emulex HBA 卡在单独的 zone。 ? HBA to SVC port zones Host 的每个 HBA port 与 2 个 SVC port 放在一个 zone,这 2 个 SVC port 分别 来自 2 个 SVC 节点。不要将 2 个以上的 SVC port 与 HBA 在一个 zone 中,因为这样导致 超过推荐路径数。 ? 每个 LUN 的最大路径数 从 SVC 节点到主机的路径数不能超过 8 个,对大多数配置,host 到 I/O 组提供的卷 为 4 个路径就足够了。 ? ? Balanced Host Load across HBA ports 为了获得最佳性能,确保每个主机口与单独的一组 SVC 口在一个 zone 中。 Balanced Host Load across SVC ports 每个 SVC 口有相同数量的主机口。26 图中每个服务器包含 2 个单口的 HBA,为 4 路径方案。 ? ? ? ? ? ? 每个 I/O 组均匀的分布主机,每个主机集的主机连接到相同的一组 SVC 口。 主机集 1 总是与 I/O 组 2 个节点的 P1 和 P4 口在一个 zone 中,主机集 2 则是与 P2 和 P3 口在一个 zone 中。Port group 为每个 SVC 节点的一个 port。 为每个 I/O 组的 port group 创建别名 Fabric A:IOGRP0_PG1→NI_P1;N2_P1,IOGRP0_PG2→N1_P3;N2_P3 Fabric B:IOGRP0_PG1→N1_P4;N2_P4,IOGRP0_PG2→N1_P2;N2_P2 用主机 WWPN 与 PG 别名来创建主机 zone尽可能用最小数量的路径来满足足够的冗余级别。 所有的路径必须使用主机的多路径驱 动来管理,假设一个主机连接 4 个口到 SVC,每个卷是 8 个路径,125 个卷映射到这个服 务器的话,多路径驱动不得不支持处理 1000 个活动路径。 8 个路径方案:27 4.1.2. Port mask 4.2. AIX 配置AIX 主机识别 SVC 卷的主要配置步骤: 1. 安装 HBA 卡 2. 检查 OS 版本 - AIX V4.3.3 - AIX 5L? V5.1 - AIX 5L V5.2 - AIX 5L V5.3 - AIX V6.1.3 3. 连接 AIX 主机到 SAN 交换机 4. 配置 SAN 交换机 zone 5. 安装 2145 主机附属支持包 6. 安装配置 SDDPCM 7. SVC 完成逻辑配置,包括定义主机,卷和 mapping 8. 运行 cfgmgr 来发现卷 备注:单个主机或者 LPAR 内的 FC port 最多为 4 个,因为连接到 SVC 的最多 port 个数28 不能超过 4 个。4.2.1. 配置 fast fail 和 dynamic tracking执行以下步骤: 1. 对每个 adapter 设置 FC SCSI I/O Controller Protocol Device2. 启用动态跟踪以上可以一步完成 chdev Cl fscsi0 Ca ?fc_err_recov=fast_fail dyntrk=yes? 备注:fast_fail 和 dyntrk 属性在 adapter 删除和重新配置后不会保留,因此,如果 adapter 被删除,然后重新配置到系统中,这些属性将丢失,需要重新配置。列出已安装的 FC 卡通过使用 lscfg Cvpl 命令显示 WWPN 号和其他属性包括 firmlevel,WWPN 用 Network Address 表示。也可使用 fcstat fcs029 4.2.2. 安装 2145 主机附属包和 SDDPCM? 安装2145主机附属包为了在主机中将 SVC 卷配置为 2145 设备类型,必须在 cfgmgr 之前安装 2145 附属 包。 如果在没有安装 2145 附属包之前运行 cfgmgr 则 LUNs 被识别为 “Other SCSI Disk Drives” , SDDPCM 不能识别这些卷。 为了修改设备类型, hdisk 需要使用命令 rmdev Cdl hdiskX 删除,然后重新运行 cfgmgr。 主机附属包安装步骤: 1. 访问以下站点: /servers/storage/support/software/sdd/downlo ading.html 2. 选择 Host Attachment Scripts for AIX 3. 选择 Host Attachment Script for SDDPCM 4. 下载 AIX host attachment fileset for your multipath device driver package: devices.fcp.disk.ibm.mpio.rte 5. 根据安装说明或 readme 文件来安装脚本? 安装SDDPCMSubsystem Device Driver Path Control Module (SDDPCM) 是一个路径控 制模块,提供路径管理功能和错误恢复算法。当存储设备配置为多路径设备时,SDDPCM 作 为 AIX MPIO FCP(Fibre Channel Protocol)设备驱动的一部分进行加载。30 AIX MPIO 设备驱动自动发现和配置所有存储设备路径, SDDPCM 管理这些路径, 提供: ? ? ? ? 存储 I/O 的高可用性和负载均衡 自动路径切换功能 并发下载存储设备的 licensed machine code 防止单点失败在 DS 系列的双控制器存储子系统中,SDDPCM 能够区分 LUN 的优先路径: ? ? 在主控制器(优先控制器)上的路径 备用控制器上的路径对于这种主备双控制器的存储设置,I/O 只发送给主控制器。因此,当 SDDPCM 选择 I/O 路径时,它会选择只连接到主控制器的路径。如果没有连接主控制器的路径可用, SDDPCM 会改变 LUN 的优先控制器给备用控制器,切换原先备用路径为主路径,并选择这 些新路径来发送 I/O。 备注:SDD 和 SDDPCM 在同一服务器上是互斥的。SDDPCM 支持最多 1200 的设备,每个设 备最多 16 个路径。然而,对于 round_robin,load_balance 路径选择算法,每个设备 超过 4 个路径可能会影响性能。31 SDDPCM 软件下载: http://www-/systems/support/supportsite.wss/support resources?brandind=5000033&familyind=5329528&taskind=2 安装之前确保 AIX 满足 SDDPCM 的安装条件。 下例显示 SDDPCM 下载到 /tmp/sddpcm 目录,解压缩,使用 inutoc 命令生成 dot.toc 文件(.toc) ,这个文件是 installp 命令需要的,然后通过 installp 命令来 安装 SDDPCM:lslpp 命令检查是否安装成功在安装完成 SDDPCM 后重启系统,验证 SDDPCM server(pcmsrv)是否自动启动, 如果 pcmsrv 自动启动,lssrc Cs pcmsrv 输出如下:NNN:进程 ID Status:Active 表示自动启动,如果不是的话,status 应该为 Inoperative从 SDDPCM3.0 以后版本,AE server 加入到 SDDPCM 中。lssrc Cs AE 输出如下:32 ? 使用 SDDPCM 来配置卷查询 WWPN 号下图显示 lshost 和 lshostvdiskmap 命令获得以下信息: ? ? ? 查看主机定义 显示 WWPN 号 显示分配的卷和卷序列号AIX 中执行 cfgmgr 命令来发现 LUNs。以下命令用来搜索 adapter 上设备:33 以下命令则在所有 adapter 上搜索设备:使用 lspv 来列出新配置的 hdisk,作为 MPIO FC2145 设备出现:? SDDPCM使用SDDPCM 使用 pcmpath 命令进行管理。 pcmpath query adapter 显示当前 adapter 状态:pcmpath query device 命令显示设备状态:*星号表示非优先 SVC 节点上的非激活路径。34 4.2.3. AIX 卷扩展自从 AIX5.2 以后 AIX 支持动态卷扩展,使卷能够在被主机和应用程序使用的情况下 进行大小扩展。但是有以下限制: 卷不能属于并发卷组 卷不能属于 FlashCopy, Metro Mirror, Global Mirror以下步骤显示如何在 AIX 上扩展 SVC 卷: 1. 使用 svcinfo lsvdisk vdisk_name 来显示当前 SVC 卷大小 2. 匹配 lsvdisk 的 vdisk_UID 与 pcmpath query device 的 SERIAL 输出的 hdisk 能够被识别 3. 使用 lspv hdisk 显示当前 AIX 中卷大小 4. 使用 svctask expandvdisksize 命令来扩展 SVC 卷 5. 在卷大小扩展后,AIX 需要更新这个配置信息,使用 chvg Cg vg_name。如果 AIX 没有返回任何信息,意味着命令成功;如果返回解释信息则没有成功 6. 使用 lspv hdisk 命令来显示新配置卷大小4.2.4. AIX 系统中运行 SVC 命令为了运行 SVC CLI 命令, 必须安装 SSH 客户端。 在 SSH 安装之前必须安装 OpenSSL。 执行以下步骤: 1. 进入/.ssh 目录 #cd /.ssh2. 在 AIX 中生成 SSH key 文件 #ssh-keygen -t rsa -f filename -t 表示生成的 key 类型:rsa1,rsa2 或 dsa,rsa2 就是 rsa,SVC 使用 rsa2; -f 表示 AIX 服务器上私有和公有 key 文件名(公有 key 以.pub 扩展名) 。 例如: A. 执行#ssh-keygen -t rsa B. 显示以下消息: Generating public/private rsa key pair. Enter file in which to save the key (//.ssh/id_rsa) C. 输入 Enter 表示接受默认文件名,或者输入文件名(例如 aixkey) D. 显示以下消息: Enter a passphrase (empty for no passphrase)35 Enter same passphrase again: E. 完成配置后显示 SSH key 创建完成。私有 key 文件为输入的文件名(例如 aixkey) ,公有 key 文件以.pub 为后缀(例如 aixkey.pub)3. 在 SVC 上使用 Master Console 安装公有 key。复制公有 key 到 Master Console 进行安装。 A. 使用 http://svcclusteripaddress/进入 SVC,进入用户管理界面,选择用 户→创建用户B. 在用户创建窗口,输入用户名称,密码和访问级别(Security Administrator 为最高级别) ,选择 SSH 公有 key 文件4. AIX 上确保私有和公有 key 在.ssh 目录和用户的 home 目录 5. 连接到 SVC ssh -l admin -i filename svc36 6. 也可以在 AIX 上直接执行 SVC 命令,例如 ssh -l admin -i filename svc svcinfo lshost -l admin 是 SVC 上的用户,-i filename 是生成的私有 key 文件名,svc 为 SVC 名称或 IP 地址5. Easy tier判断 SVC extent 的 I/O 活动量,何时来将 extent 迁移到合适的性能层通常是个复 杂的手工管理任务。Easy tier 是一个性能优化工具,它会自动的迁移卷的 extent 到不 同的 MDisk 存储层。 在一个多层存储池打开 Easy tier 功能,Easy tier 会监视所有卷的 extent 的 I/O 活动和延时。基于这些监视数据它会创建一个迁移计划,将动态的移动高活动量或者 hot extents 到存储池内的一个更高的 disk tier ,同时它也会将活动量降下来的 extent 迁移到 lower-tiered MDisk。因为这个迁移工作运行在 extent 级别,也通常 也称为 sub-LUN 迁移。 Easy tier 功能可以在存储池级别和在卷级别打开或者关闭。 在多层存储池环境中 Easy tier 每隔 24 小时创建一个迁移报告,即使在一个单层存 储池中迁移时不可能的,但是这个统计功能仍然有用。 备注:image 模式和 sequential 卷是不作为 Easy tier 自动迁移的对象。5.1. Easy tier 概念Disk tier 由于 disk 或者 RAID 的类型不同,因此 SVC 集群的 MDisk(LUN)将会有不同的性 能属性。 因此将存储层属性分配给各个 MDisk, 默认为 generic_hdd。 对于 SVC6.1, SSD 有个新的属性为 generic_ssd。 SVC 不会自动检测 SSD MDisk,所有外部 MDisk 初始都是默认为 generic_hdd 层, 因此管理员需要手工修改 SSD 层为 generic_ssd。单层存储池 单层存储池中 MDisk 应该有相同的硬件属性,例如相同的 RAID 类型,RAID 阵列大 小,disk 类型,disk RPM 和控制器性能属性。37 多层存储池 多 层 存 储 池 可 以 有 不 同 类 型 的 disk tier , 例 如 同 时 有 generic_hdd 和 generic_ssd 属性的 MDisk。 下图显示了存储池有 2 个不同的 MDisk 类型,分别为 SSD 和 HDD 阵列。38 Easy tier process Easy tier 功能有 4 个主要过程: ? I/O 监控这个过程进行卷的 I/O 活动监控,为每个 extent 收集性能统计,在 24 小时计算平均值 来生成一个报告。 ? 数据移动顾问数据移动顾问使用统计报告来决定哪些 extents 作为迁移到高性能层(SSD)的候选者, 同时也区别哪些 extents 需要迁移回低层(HDD) 。 ? ? 数据迁移计划根据数据移动顾问决定的 extents,数据迁移计划为存储池建立 extent 迁移计划。 数据迁移器数据迁移器来进行实际迁移卷的 extent 到高 disk tier 或迁移回低层。Extent 迁移率 是最大为 30MBps,也就是 3TB 一天。当重新放置卷 extents 时,easy tier 执行以下操作: ? ? 试着迁移高活动量的 extent 到 SSD 层,确保有空余 extent 可用。不是频繁访问的 extent 将迁回到 HDD 层 以前迁移计划中没有执行迁移的 extent 在本次迁移中无效Easy tier 操作模式 Easy tier 主要有 3 个操作模式:Off 模式,Evaluation or measurement only mode 和 Automatic Data Placement or extent migration mode。 ? ? Off 模式:就是 easy tier 关闭。Evaluation or measurement only mode:该模式为单层存储池的每个 extent 收集统计信息,这个典型用于只包含 HDD 的单层 存 储 池 。 统 计 文 件 存 放 在 SVC 节 点 的 /dumps 目 录 下 , 文 件 名 为 dpa_heat.nodeid.yymmdd.hhmmss.data。?Auto Data Placement or extent migration mode:在这个模式下,必须设置存储池参数 -easytier on 或 auto,存储池中卷同样为 -easytier on。存储池必须包含不同 disk 层的 MDisk,也就是多层存储池。 动态数据移动对于主机服务器和应用数据来说是透明的。 这个模式也会创建统计文件,这个文件可以导入顾问工具,工具会产生一个 extents 迁移到 SSD 的报告,以及预测可能获得的性能提升。 为了激活 easy tier,设置 easy tier 值为 on,参数设置如下:39 Storage Advisor Tool IBM storqge advisor tool 是一个运行在 windows 系统中的命令行工具,使用 dpa_heat 文件作为输入,产生活动报告的 html 文件。 提 取 统 计 文 件 可 以 通 过 CLI 或 者 GUI 。 在 GUI 中 导 航 选 择Troubleshooting→Support,如下:在 windows 下运行如下: C:\Program Files\IBM\STAT&STAT dpa_heat.nodenumber.yymmdd.hhmmss.data 在 STAT 目录下产生 index.html 文件,打开如下:40 5.2. Easy tier 实施考虑先决条件 Easy tier 不需要 license,是作为 V6.1 的一部分。为了使用 easy tier 来迁移 extent,不同的层需要有可用的存储空间,例如混合 SSD 和 HDD。实施规则 Easy tier 对 image 或 sequential 卷是不支持自动数据移动的,对这些卷的 I/O 监控是支持的,但是不能迁移这些卷上的 extents,除非转换这些卷为 striped 卷。 对镜像卷的每个 copy 进行自动数据移动和 extent I/O 监控是支持的,Easy tier 对每个 copy 操作都是独立的。 当卷迁移出存储池,Easy tier 自动数据移动模式在这个卷上将不再激活,即使卷迁 移到有 Easy tier 功能的存储池。此时在迁移完成后需要重新启用这个卷的自动数据移动 模式。限制条件 ? 当使用-force 参数来移除 MDisk 的限制 当使用-force 参数来删除 MDisk 时,该 MDisk 使用的 extents 迁移到相同层的 MDisk 中。如果该层没有足够的 extents,则使用其他层的 extents。 ? ? 当迁移 extents 时限制 当卷开启自动数据移动,svctask migrateexts 命令不能再这个卷上使用。 当迁移卷到另外存储池的限制 当 SVC 迁移一个卷到新的存储池,easy tier 自动数据移动功能临时挂起,在迁移完 成后,在 generic SSD 层和 generic HDD 层之间的 easy tier 自动数据移动功能会 重新恢复,可能的话。 当 SVC 迁移卷到其他存储池,会尝试迁移每个 extent 到新存储池相同层的 extent41 中,在目标层不可用情况下,使用其他层。 ? 当迁移卷为 image 模式的限制 easy tier 自动数据移动不支持 image 模式。 当启用自动数据移动的卷迁移为 image 模式时,自动数据移动将不再激活。 ? ? Image 和 sequential 模式卷不支持自动数据移动 Image 模式卷支持 evaluation 模式Best practices ? ? 总是设置存储池的-easytier 值为 on 而不是默认的 auto, 使得对于单层存储池能够 开启 evaluation 模式,当移动到多层存储池时不需更多的修改。 使用 easy tier 更适合用较小的存储池 extent6. 数据迁移SVC 可以在不中断主机对卷访问的情况下修改卷 Extent 与 MDisk Extent 的映射关 系。这个功能可以用来执行卷迁移,应用于 SVC 的任何卷。6.1. 迁移操作迁移可以执行在卷或者 extent 级别。SVC 支持以下的迁移活动: ? ? ? ? ? 在一个存储池内迁移 extents,重新分布卷的 extent 从一个即将删除的 mdisk 上迁移 extents 到同一存储池的其他 mdisk 上 迁移卷到其他存储池 迁移卷来改变卷的虚拟化类型为 image 在 I/O 组之间迁移卷 每个迁移活动在下面详细解释。? 在一个存储池内迁移多个 extents使用 migrateexts 命令一次可以迁移多个 extents,migrateexts 的详细帮助信 息查看:svctask migrateexts Ch 在执行卷迁移时,这个命令从源 mdisk 上迁移卷所属的 extents 到同一存储池的目 的 mdisk 上,同时可以指定一定数量的并行迁移线程(1 到 4) 。 如果卷类型为 image, 那么当第一个 extent 被迁移时卷类型转变为 striped, mdisk 访问模式从 image 转变为 managed。42 ? 从即将删除的 mdisk 上迁移出 extents当使用 rmmdisk Cforce 命令删除 mdisk 时,在删除之前将 mdisk 上正在被卷使用 的 extents 首先被迁移到同一存储池的其他 mdisk 上。 如果即将删除的 mdisk 上存在同一卷的一个或多个 extent,那么将卷的虚拟化类型 设置为 striped(如果此前是 sequential 或 image) 。 如果 mdisk 为 image 模式,当 extents 被迁移时,mdisk 转变为 managed 模式。 删除后转变为 unmanaged 模式。 Force 选项:如果在即将删除的 mdisk 上有 extent 被卷使用且没有使用-force 选项, 则 rmmdisk 失败。 当使用-force 时,如果存储池有足够的空余 extents 则 mdisk 上的所有 extents 迁移到同一存储池的其他 mdisk 上。mdisk 的删除需要在迁移完成后才进行,如果存储池 没有足够的空余 extents,命令失败。? 在存储池间迁移卷卷可以通过命令 migratevdisk 从一个存储池迁移到其他存储池中。不管卷的虚拟化 类型(striped,sequential,image) ,卷都可以在存储池之间迁移。根据迁移类型使 用不同命令:为了迁移成功,源和目的存储池的 extent 大小必须相同。卷镜像功能也可以用于存 储池之间迁移卷,而且这个方法可以用于不同 extent 大小的存储池。 迁移卷 extents 时, 在目标存储池的一组 mdisk 上使用 extent 分配算法进行分配。 在迁移时可以指定并行化数量(1 到 4) ,只用一个线程的话将给系统带来较小的负载。 如果卷类型为 image, 那么当第一个 extent 被迁移时卷类型转变为 striped, mdisk 访问模式从 image 转变为 managed。 在迁移时,卷仍然作为源存储池的一员显示出来,在迁移完成时才移动到新存储池。? 迁移卷为 image 模式在迁移卷为 image 模式的同时可以在存储池之间迁移。迁移源可以是 managed 或 image 模式卷,因此有 4 个可能性:43 1. 在一个存储池内迁移 image-to-image 模式 2. 在一个存储池内迁移 managed-to-image 模式 3. 在存储池之间迁移 image-to-image 模式 4. 在存储池之间迁移 managed-to-image 模式迁移条件: ? ? ? ? 目标 mdisk 必须大于等于卷大小 作为目标的 mdisk 必须是 unmanaged 状态 如果迁移由于集群恢复操作而中断,在恢复完成后迁移能够重新开始 在存储池之间迁移的话,卷行为与前面“在存储池间迁移卷”所述相同不管迁移前卷的模式,在迁移过程中卷被认为是 managed 模式,同时涉及的 mdisks 被认为是 image 模式。在迁移命令完成后,卷被指定为 image 模式。? 在 I/O 组之间迁移卷通过 svctask chvdisk 命令可以在 I/O 组之间迁移卷, 这个命令不支持 FlashCopy 和 Remote Copy。 在 I/O 组之间迁移卷,卷缓存必须首先被 flush。在 I/O 组迁移时,SVC 将尝试从缓 存中 destage 卷的所有写数据,如果数据被 pin 在缓存,flush 将失败,进而导致 I/O 组之间迁移失败。此时可以使用-force,如果使用了-force,但 SVC 不能 destage 所 有写数据,这样会由于丢失缓存数据而导致卷内容被破坏。在 flush 时,卷操作在缓存 write-through 模式。 备注:不要迁移卷到离线的 I/O 组。在迁移卷之前确保 I/O 组在线,否则会丢失数据。在迁移前必须 quiesce 主机 I/O,理由如下: 如果缓存中有大量数据,因而需要一段时间来 destage,迁移命令将超时 为了避免数据损坏,在迁移之前删除卷对应的 SDD vpath。因此,迁移过程中, LUN 上仍然在进行 I/O 操作时会引起数据损坏在 I/O 组之间迁移卷时,可以指定优先节点,或者由 SVC 来分配优先节点。 如果卷是 FlashCopy 或 Remote Copy 的成员,则不能迁移到其他 I/O 组,也不能 使用-force 来强制迁移。 因此, 在 I/O 组之间迁移前必须删除 FlashCopy 映射和 Remote Copy 关系。44 ? 迁移过程监控监控迁移过程命令:svcinfo lsmigrate 确定 mdisk 和卷的 extent 分配,使用以下命令: 在查询的 mdisk 上列出卷 ID 和卷的 extent svcinfo lsmdiskextent &mdiskname | mdisk_id& 在查询的 vdisk 上列出 mdisk ID 和卷所使用的 extent svcinfo lsvdiskextent &vdiskname | vdisk_id& 列出 mdisk 上可用的空余 extent svcinfo lsfreeextents &mdiskname | mdisk_id&在迁移开始后,没有办法来停止迁移。迁移直接运行完成,除非由于错误而停止或挂起 迁移,或者正在迁移的卷被删除。 如果想要启动,挂起,取消迁移或者控制迁移率,考虑使用卷镜像功能或者在存储池之 间迁移卷。6.2. 迁移功能概览 6.3. 从 Image 模式卷迁移数据本节描述从 image 模式卷迁到 managed 模式卷。模式之间的转换: ? Unmanaged 模式到 managed 模式 这个转换发生在 mdisk 加入存储池 ? Managed 模式到 unmanaged 模式 当 mdisk 从存储池移除 ? Unmanaged 模式到 image 模式 在 unmanaged 模式 mdisk 上创建 image 模式 mdisk 或者 mdisk 用作迁移到 image 模式的目标对象 ? Image 模式到 unmanaged 模式存在 2 种情况:当 image 模式卷被删除,则 image 模式卷对应的 mdisk 成为 unmanaged 当 image 模式卷迁移到另外的 mdisk 上,原 mdisk 在所有数据被移除后转换为 unmanaged 模式 ? Image 模式到 managed 模式 当 image 模式卷迁移为 managed 模式45 ?Managed 模式到 image 模式是不可能的 为了实现这个操作,先转换 mdisk 为 unmanaged 模式,然后再转换为 image 模式转换图如下:Image 模式卷有个特别属性,卷的最后一个 extent 可以是部分 extent,manage 模式 disk 没有这个特性。 在 image 模式卷上执行任何类型的迁移活动, image 模式 disk 必须首先转换为 manage 模式 disk。如果 image 模式 disk 的最后 extent 为部分 extent,则 image 模式卷的最后一个 extent 必须是第一个被迁移的 extent,这种迁移是作为特例处理。 在这个特殊处理后,image 模式卷成为 managed 模式卷。如果 image 模式 disk 没 有最后一个 extent 为部分的话,无须特别处理,image 模式卷简单的转换为 managed 模式卷。迁移提示: ? 如果 image 模式卷在同一个存储池内迁移,可以执行这些迁移: 迁移单个 extent,必须迁移 image 模式卷的最后一个 extent(N-1) 迁移多个 extent 从一个 mdisk 上迁移所有使用的 extent? 如果有 2 个存储池,一个用于 image 模式卷,一个用于 manage 模式卷, 可以从一个存储池迁移卷到另外存储池46 6.4. 使用 SVC GUI 进行数据迁移 6.4.1. 在 host 和 DS4700 之间加入 SVC配置案例:Windows Server 2008,DS4700 和 DS4500。迁移前 DS4700 上的 2 个 LUNs 是直接映射给 Windows Server 2008,当前 zone 配置:迁移时 zone 配置:为了在 host 和 DS4700 之间加入 SVC,完成以下步骤:47 1. 检查主机上的设备驱动 2. 检查 SAN 环境的 zone 配置 3. 关机 4. 修改 DS4700 上的 LUN mapping,将 LUN 映射给 SVC,移除主机的映射 5. 登陆 SVC 控制台,选择 Physical Storage 的 Migration6. 点击 Start New Migration7. 按照向导点击 NEXT48 8. 下图显示迁移准备环境信息,NEXT9. NEXT49 10. 显示设备发现窗口,点击 Close11. 显示迁移可用的 Mdisk,NEXT50 12. 标记迁移的 Mdisk,NEXT13. 下图显示 Mdisk 导入过程,在导入过程中自动创建一个新存储池,在向导中可以看到 创建 image 模式卷的命令,点击 Close51 14. 创建用于映射卷的主机对象,点击 New Host15. 填写主机信息52 16. 点击 Create Host17. 主机创建完成,如下18. 下图显示能够映射给主机的所有可用卷,NEXT53 19. 选择卷后点击 Map to Host20. 跳出如下框21. 右边栏显示映射给主机的卷,点击 OK54 22. 下图显示卷映射给主机过程,点击 Close23. 映射完成后,注意到 Host Mapping 下面显示 Yes24. 选择迁移的存储池,本例为 DS4700_2,NEXT55 25. 向导自动通过卷 copy 来迁移26. 数据迁移开始,点击 Finish56 27. 下图表示迁移进程28. 在 SVC 界面选择 Volumes→Volumes by host,查看主机的卷29. 下图显示主机所有卷(copy0 和 copy1)57 图中所示迁移卷实际是一个镜像卷,一个 copy 位于 image 模式池,另一个位于 managed 模式池,管理员可以从镜像中分离 copy。6.4.2. 使用 CLI 在 host 和 DS4700 之间加入 SVC? 查看当前的存储池?创建存储池,用于存放迁移到 SVC 的 LUNs。这样在 LUNs 的导入过程中不会影响其他 存储池?查看新创建的存储池58 ?创建 image 模式卷?查看新创建的 image 模式卷?将卷映射给 host?将 image 模式卷复制到其他存储池,形成镜像卷59 ?检查卷状态,卷为镜像卷,故 type 为 many6.4.3. 迁移 managed 模式卷为 image 模式迁移 managed 卷为 image 卷须执行以下步骤: 1. 创建存放 image 模式卷的存储池,SVC 界面选择 Physical Storage→Pools2. 创建空的存储池,如下:60 提示创建了一个空的存储池,点击 OK3. 下图显示存储池创建过程,点击 Close61 4. 在 Volume→All Volumes 界面中选择需要迁移为 image 模式的卷,在下列菜单选择 Export to Image Mode5. 选择迁移目标 Mdisk,点击 NEXT6. 选择 image 模式卷的存储池62 7. 卷被导出为 image 模式,放入目标存储池,过程如下:8. 在 SVC 界面的 Physical Storage→Mdisks,注意 Mdisk 现在为 image 模式的 Mdisk63 9. 重复以上步骤来迁移其他需要转换为 image 模式的卷6.4.4. 迁移 image 模式卷为 image 模式迁移 image 模式卷从一个存储子系统到其他存储子系统可以使用卷迁移的 image 模 式到 image 模式处理过程而无需通过 managed 模式。在迁移时数据仍然可用,这个迁移 过程与 6.4.3 相似。 本例 DS4700 上 LUN 以 image 模式迁移到 DS4500 存储子系统。 Mdisk5 为 DS4700 上的 LUN 映射给 SVC,首先将 Mdisk5 变更为 image 模式卷,然后迁移到 DS4500 中的 Mdisk 上。具体迁移过程: 1. 选择 Mdisk5,点击 Action 中 Import2. 跳出导入向导页面,选择 NEXT64 3. 因为不需要迁移到 managed 卷存储池所以不要选择存储池,直接 Finish4. 跳出告警信息框,表示卷将放入临时池,点击 OK5. 导入过程启动,系统自动创建临时存储池 Migrationpool_8192 (8 GB)和 image 卷,点击 Close65 6. 如下图 Mdisk5 为 image 模式7. 创 建 存 储 池 Migration_out , extentsize 与 自 动 创 建 的 存 储 池Migrationpool_8192 相同,为 8GB。选择 Physical Storage→Pools8. 点击 New Pool 来创建一个空存储池,在 Advanced Settings 中选择 8GB66 9. 下图显示存储池没有任何 Mdisk,点击 Finish 来创建空存储池10. 跳出告警信息,如下:选择 OK11. 创建过程如下:选择 Close67 12. 用于迁移的空存储池创建完成后,在 SVC 界面选择 Volumes→olumes by Pool 13. 选择存储池 Migrationpool_8192 中需要迁移出去 image 卷,在 Action 中选择 Export to Image Mode14. 选择目标 Mdisk,NEXT15. 选择之前创建的空存储池作为目标池16. 导出卷过程如下,选择 Close68 17. 下图显示 Mdisk 位于存储池 Migration_out18. 重复以上步骤来迁移其他 image 模式卷6.4.5. 从 SVC 移除 image 模式卷如果数据位于 image 模式卷上,可以从 SVC 移除卷,然后重新映射给 host。根据迁 移环境,在移除 image 模式卷之前可能需要执行以下过程: ? ? 6.4.3 迁移 managed 模式卷为 image 模式 6.4.4 迁移 image 模式卷为 image 模式 在 SVC 中移除 image 模式卷使用 delete vdisk 命令,如果命令成功,底层存储控 制器保持 image 模式卷上数据一致, 也就是所有 fast write 数据将被 flush 到底层 LUN。 删除 image 模式卷将使得卷对应的 Mdisk 在存储池变为 unmanaged 模式。 备注:这种情况只适应 image 模式卷,如果删除一个正常卷的话,所有数据将被删除。 检查在 host 是否安装正确的设备驱动。 切换回存储子系统需要执行以下步骤: 1. 关机 2. 在存储子系统中编辑 LUN masking,Remove the SVC from the LUN masking, and add the host to the masking 3. 打开 Volumes by Host 窗口,查看哪些卷映射给了服务器69 4. 选择服务器和对应的卷,右键选择 Unmap all Hosts5. 验证 unmap 过程如下,点击 Unmap6. 下图显示卷被移除70 7. 重复步骤 3-5 来移除其他 image 模式卷 8. 启动服务器6.5. 迁移 AIX SAN disk 到 SVC 卷本节描述从 DS4700 通过 image 模式卷迁移 LUNs 到 SVC, 然后将 image 模式卷转化 为 managed 模式卷,然后再转换为 image 模式卷,迁移到 DS4500 上,重新映射回 AIX 服务器。 初始环境如下:6.5.1. 迁移 LUNs 到 SVC连接 SVC 到 SAN 网络需要完成以下任务: ? ? ? 安装 SVC 节点 创建和配置 SVC 集群 创建 zone SVC 节点 zone(黑色区域) 存储 zone(红色区域) 主机 zone(蓝色区域) 绿色区域为原有 zone71 ? 创建存储池当移动 AIX LUNs 到 SVC 时,首先使用 image 模式,因此创建存储池存放 image 模 式 mdisk,命名为 aix_imgmdg 备注:不要手工将包含数据的 unmanaged Mdisk 加入 Mdisk Group,否则会丢失 数据,必须首先成为 image 模式卷然后通过迁移到 striped Mdisk,来保持数据的完整 性。? 创建主机定义在 zone 配置完后, SVC 能够看见 AIX 服务器的 HBA 卡。 首先取得 AIX 服务器的 WWPN 号,为 A7FB72 命令 svcinfo lshbaportcandidate 列出没有分配给主机的所有 WWPN 号,如果没 有显示的话则 zone 配置有问题。在 SVC 能够看见主机(Kanaga)后,创建主机条目和分配 WWN 号:73 ? 验证 SVC 能够看见存储子系统使用 svcinfo lscontroller 命令:? 取得 disk 序列号如果 SVC 中能够看到很多可用的 unmanaged Mdisks,为了避免创建卷在错误的 Mdisk 上,因此在创建 image 模式卷之前检查序列号。如果使用 DS4000,Storage Manager 会显示 LUN 序列号。例如右击 LUN 选择属性,显示 kanage_lun0? 迁移 LUNs 到 SVC因为只是迁移存放应用程序和数据文件的 LUN,所以无需重启 AIX 系统。唯一要求是 unmount 文件系统和 varyoff VG 来确保数据一致性。 移动 LUNs 到 SVC 中需要完成以下步骤: 1. 验证 SDD 安装 2. unmount 和 varyoff VG74 A. 停止使用 LUNs 的应用程序 B. 使用 umount 命令来 unmount 文件系统 C. 如果文件系统是 LVM 卷,使用 varyoffvg 命令来 varyoff 卷组 3. 使用 Storage Manager 将 LUNs 从 AIX 服务器上 unmap 和 unmask,重新映射到 SVC 4. 在 SVC 使用 svctask detectmdisk 来发现新盘,命名为 mdiskX,X 为下一个可用 mdisk 号(从 0 开始)重要:匹配 MDisk 序列号(svcinfo lsmdisk 的 UID)与 Storage Manager 中序列 号 5. 在确认完 mdisk 后,重命令这些 mdisk,避免以后混淆6. 使用 svctask mkvdisk 命令的-vtype image 选项创建 image 模式卷75 7. 映射新创建的 image 模式卷给主机8. 执行以下步骤将 image 模式卷 online: A. AIX 系统中移除原来 hdisk 定义 B. 运行 cfgmgr Cvs 命令来重新发现 LUNs C. 如果应用程序在 LVM 卷上,重新发现 VG,然后运行 varyonvg 来激活卷组 D. Mount 文件系统 E. 启应用6.5.2. 迁移 image 模式为 striped 卷在 AIX 运行时, 迁移 image 模式卷到 striped 卷, 且卷的 extents 跨越 3 个 mdisk。? 准备用于 striped 卷的 mdisk主要操作如下: 1. 创建和分配 3 个 LUNs 给 SVC 2. 在 SVC 中发现这些 LUN 作为 Mdisk 3. 重新命名这些 LUNs 为有意义的名称 4. 创建新存储池 5. 把这些 LUNs 放入存储池76 ? 迁移 image 模式卷为 striped 卷使用命令 svctask migratevdisk 迁移 image 模式卷为 striped 卷。在迁移运行77 时,AIX 能够继续使用,并且可以进行文件访问。使用 svcinfo lsmigrate 命令来检查 迁移进程;在迁移到新存储池时,svcinfo lsmdisgrp 会命令显示原存储池的空余大小 在增加。在迁移完成后,下图显示卷跨越 aix_vd 存储池的 3 个 mdisk,原存储池成为空的。78 至此迁移到 SVC 全部完成,可以从 SVC 中移除原来的 Mdisk(aix_imgmdg 池中 2 个 LUN) ,从存储子系统中移除这些 LUNs。6.5.3. 从 SVC 中迁移卷到存储子系统将 LUNs 从 SVC 迁移回存储子系统中,需要先转换卷为 image 模式卷。如果需要迁移 数据到一个新的存储子系统,假定新存储子系统已经连接到 SAN 网络,且 SAN 交换机能看 见这个存储子系统,如下图:? Making fabric zone changes第一步就是进行 SAN 配置,设置正确的 zone,将新存储子系统加入到红色区域,这样 SVC 能够看见这个存储子系统。创建绿色区域,使得主机在从 SVC 移除后,能够直接访问 存储子系统。 在所有 zone 配置完成后,SVC 能够使用 svcinfo lscontroller 命令来看见新存 储子系统,也可以使用 svctask chcontroller Cname 命令来重命名控制器为一个有 意义的名称。79 ? 创建新 LUNs在新存储子系统 DS4500 上创建 2 个 LUNs 并进行 mask,使的 SVC 能够看见这 2 个 LUNs,最终将这些 LUNs 直接映射给主机。为了检查 SVC 能看见 LUNs,使用 svctask detectmdisk 命令,如下图。 本例中使用 DS4500 上 2 个 10GB LUNs,且在 DS4700 存储子系统上已经删除了原来 用作 image 模式的 2 个 LUNs,因此这里显示为 offline。新分配的 2 个 LUN 为 mdisk29 和 mdisk30,重命名 Mdisk,另外创建存储池来存 放新的 Mdisks80 此时 SVC 环境已经准备好,可以迁移为 image 模式卷。? 迁移 managed 卷为 image 模式在 AIX 运行期间,迁移 managed 卷到新的 mdisk 上成为 image 模式卷。81 在迁移过程中,AIX 是不会感知数据在进行迁移的。? 从 SVC 中移除 LUNs为了 AIX 能够直接从绿色区域 zone 看见 LUNs, 需要进行停机, 重新 map 这些 LUNs。 因为本次使用的 LUNs 只有数据文件且单独使用一个 VG, 可以在不需重启情况下进行 map, 唯一要求就是 unmount 文件系统和 varyoff VG 来确保数据的一致性。 按照以下步骤从 SVC 中移除 LUNs: 1. 检查服务器使用的设备驱动程序,因为本次迁移到 DS4500,所以能够继续使用 SDD 2. 关闭应用程序和 unmount 文件系统 A. 关闭需要这些 LUNs 的应用程序 B. 使用 umount 命令 unmount 文件系统 C. 如果文件系统为 LVM 卷,需要使用 varyoffvg 命令 3. 使用 svctask rmvdiskhostmap 命令来移除卷的映射,svcinfo lshostdiskmap 命令检查确认4. 在 SVC 中使用 svctask rmvdisk 命令移除卷,使得 mdisk 成为 unmanaged。 Cached data:当执行 svctask rmvdisk 时,SVC 首先检查缓存中有没有该卷的脏数82 据,如果存在没有提交的缓存数据,命令失败,出现如下信息: CMMVC6212E The command failed because data in the cache has not been committed to disk 此时需要等缓存数据提交到底层存储子系统才能进行删除卷。 SVC 在最后一个对卷的写活动后自动 destage uncommitted cached data two minutes。 How much data there is to destage, and how busy the I/O subsystem is, determine how long this command takes to complete。 检 查 卷 在 缓 存 中 是 否 有 未 提 交 数 据 , 使 用 svcinfo lsvdisk 命 令 , 检 查 fast_write_state 属性值,属性值含义: Empty: No modified data exists in the cache. not_empty: Modified data might exist in the cache. Corrupt: Modified data might have existed in the cache, but any modified data has been lost.5. 使用 Storage Manager 软件将 LUNs 从 SVC 上 unmap 和 unmask, 重新映射到 AIX 重要:到此步骤仍然能够在没有数据丢失情况下进行回退所有操作。 ? ? ? ? Remap LUNs 到 SVC 运行 svctask detectmdisk 命令恢复 mdisk 使用 svctask mkvdisk 命令重新创建卷 使用 svctask mkvdiskhostmap 命令 remap 卷到服务器在执行完这个步骤后,可能就不能回退了,回退有数据丢失的风险。 此时可以在 AIX 服务器上来访问 LUNs。如果所有的 zone 和 mapping 都正确设置完 成后,AIX 能够访问 LUNs。 1. 运行 cfgmgr CS 命令来发现存储 2. 使用 lsdev CCc disk 查看新的 hdisk 3. 移除 SVC 属性 hdisk 定义,下图分别显示 SDD 与 SDDPCM 的移除方法。83 4. 如果应用程序和数据在 LVM 卷上,重新发现 VG,然后运行 varyonvg 来激活 VG 5. 使用 mount 挂载文件系统 6. 启动应用程序 7. 确保 mdisk 从 SVC 中移除,使用 svctask detectmdisk 命令检查,mdisk 首先被84 认为是 offline,然后 SVC 判断没有卷在这些 mdisk 上则自动被移除。6.6. 使用 SVC 进行存储迁移SVC 不是主要用于存储迁移,但是 SVC 的特性可以用作存储迁移工具。因此,可以临 时将 SVC 加入 SAN 网络,将数据从一个存储子系统迁移到另外存储子系统。SVC 能够复制 image 模式卷直接从一个子系统到另外子系统而不影响主机 I/O。The only downtime that is required is when the SVC is added to and removed from your SAN environment. 使用 SVC 只用作迁移目的,执行以下步骤: 1. 将 SVC 加入 SAN 网络 2. 准备 SVC 3. 根据操作系统,unmount 与迁移 LUNs 有关的文件系统或者关机 4. 在存储和主机之间加入 SVC 5. mount LUNs 或者启动主机 6. 开始迁移 7. 在迁移完成后,unmount 与迁移 LUNs 有关的文件系统或者关机 8. 从 SAN 中移除 SVC 9. mount LUNs 或者启动主机 10. 迁移完成使用 SVC 进行存储迁移,执行前面章节描述的步骤: ? ? ? 6.4.1 在主机系统和存储 DS4700 之间加入 SVC 6.4.4 迁移 image 模式卷为 image 模式 6.4.5 从 SVC 移除 image 模式卷7. Best Practice7.1. 存储池如果存储池中某个 Mdisk 离线则会导致整个存储池离线。例如一个有 40 个 array 的 存储池,每个 array 为 1TB,如果其中一个 array 有问题(也就是导致 Mdisk 离线)则 整个存储池的 40 个 array 全部离线。基本设计思想:85 ? ? ? ?一个存储子系统只能属于一个集群 每个存储池的 Mdisk 只来自于一个存储子系统 每个存储池的 Mdisk 不超过 10 个 array 建议每个应用程序使用一个存储池备注:对于大多数集群 1-2PB 足够满足要求。Best Practice 为使用 256MB extent, 对于较大空间的集群,选择 512MB extent。如果使用 XIV,推荐 extent 1GB。 推荐存储池的 array 数量:推荐将整个 array 作为一个 LUN,特别是对于中端存储子系统。多个 LUN 会导致显著 的性能降低,主要是由于较小的 cache size 和不能充分使用 cache,另外同一 array 上多个 LUN 的 IO 队列会加重 array 负载。对于高端存储例如 DS8000 系列,有较大的 cache 因此影响较小。如果一个 array 有多个 LUNs,推荐将 LUN 放入同一存储池。存储池的 LUN 选择考虑以下内容: ? ? ? ? Array 大小 LUN 大小 Array 中 LUN 数量 Array 的物理 disk 数量Important:建议 LUN 使用整个 array 大小。 存储池中的所有 LUN(Mdisk)必须有相同的性能属性。如果存储池中有不同的属性 Mdisk,那么存储池性能取决于性能最差的 Mdisk。存储池中 LUN 属性: ? ? ? ? LUNs 有相同的类型 LUNs 有相同的 RAID 级别 LUNs 有相同的 RAID 宽度(array 中物理 disk 数量) LUNs 容量相同86 7.2. Host即使 SVC 至多支持 8 路径,建议使用 4 路径。映射给 host 的卷需要使用 host 资源, 例如内存和处理时间, 路径数越多资源使用越多。 在同样路径数情况下, 使用较少的大 LUNs 而不是较多的小 LUNs,然而,可能需要优化队列深度和 I/O buffer。 备注:将 Fibre Channel tape 和 Fibre Channel disks 放在单独的 HBA 卡上。 在创建 host mapping 时, host 端 port 能够在 SVC 节点的 port 上看见卷。 Nodes always present the logical unit (LU) that represents a specific volume with the same LUN on all ports in an I/O Group。这个 LUN mapping 称为 Small Computer System Interface ID (scsi id)。SVC 按照升序自动分配 SCSI ID,也可以用户指定。这也是卷的唯一标识称为 LUN 序列号。 推荐分配 SAN boot OS 卷使用最小的 SCSI ID(0) ,然后再分配数据用卷。如果需 要在多个 host 之间共享卷,控制卷的 SCSI ID 使得在 host 之间保持一致,这样简化卷 的管理。 在使用 image 模式将 host 迁移到 SVC 环境时,按照原先在存储子系统上分配 LUNs 给 host 的顺序来分配卷。?Host path大多数操作系统将每个路径的卷作为一个单独的存储设备, 因此需要在 host 中安装多 路径软件,由多路径软件来管理卷的路径,提供给操作系统一个单一的存储设备。 创建卷时需选择优先节点。对卷进行 I/O 操作时,处理 I/O 的节点将数据复制到搭档 节点,从 SVC 节点写数据到底层存储只能通过优先节点。因此当一个新的写或读操作来到 非优先节点时,节点需要发送额外的信息到优先节点检查缓存中是否有数据或者数据处于 destage 过程中,所以通过优先节点访问卷性能将更好。 IBM 多路径软件(SDD,SDDPCM 或 SDDDSM)将会检查每个卷的优先路径设置,管理 路径的使用: ? ? 非优先路径:failover only 优先路径:选择多路径算法(默认 load_balance)将卷的优先节点在 SVC 节点之间均衡分布。如果优先节点离线,所有 I/O 将以 write-through 模式在非优先节点上处理。?动态重配置正常情况下给 host 增加新存储,然后使用 cfgmgr 来发现设备,这个操作是安全的,87 因为没有老的信息需要移除。 在移除卷是需要注意。用户移除 host map 后,卷变为不可用,SVC 报告 port 上没 有该设备,使用 datapath query device 命令显示一个 closed,offline,invalid 或 dead 状态:下次分配一个新卷映射给 host,如果 SCSI ID 设置为系统分配的默认值时,SCSI ID 可能会重用。此时 host 可能会混淆新设备与老设备定义,因为老设备信息仍然在 ODM 中, 系统有可能得到 2 个设备, 这 2 个设备在 ODM 中有相同的设备定义信息。 如下例 vpath189 和 vpath190 有相同的 hdisk 定义,实际有着 2 个不同的设备序列号:多路径软件 SDD 能够认出为一个新设备,然而,如果用户没有删除原配置数据,ODM 中 仍然存在老的 hdisk 和 vpath 定义,导致 host 混淆,因为 SCSI ID 对应的设备序列号 发生变化了。为了避免这样的情况,在映射新卷给 host 之前,在 ODM 中移除 hdisk 和 vpath 信息(rmdev Cdl vapth189,rmdev Cdl hdisk1654 等) 。?Queue depthQueue depth 是在设备上能够并行 I/O 操作的数量。在 host 中控制 queue depth 可以通过设置 adapter 处理 I/O 数和 LUN 的最大 queue depth 来实现,也有多路径软88 件设置,例如 qdepth_enable。Host I/O 将被转化为 Mdisk I/O,由 SVC 提交 I/O 给底层存储。Host 允许用户控制卷的 queue depth,SVC 控制 Mdisk 的 queue depth, 无须用户干预。 After SVC has submitted I/Os and has “Q” I/Os per second (IOPS) outstanding for a single MDisk (that is, it is waiting for Q I/Os to complete), it will not submit any more I/O until some I/O completes. That is, any new I/O requests for that MDisk will be queued inside SVC. The homogeneous queues must meet the following criteria: ? The queued commands must be shared among all paths rather than providing servers with additional resources. ? The volumes must be distributed evenly among the I/O groups in the clustered system. Set the queue depth for each volume on the servers using the following calculation q = ((n * 7000) / (v * p * c)) where q = the queue depth per device path n = the number of nodes in the system v = the number of volumes configured in the system p = the number of paths per volume per host. A path is a route from a server Fibre Channel port to a SAN Volume Controller Fibre Channel port that provides the server access to the volume. c = the number of hosts that can concurrently access each volume. Very few applications support concurrent access from multiple hosts to a single volume. This number typically is 1. Consider the following example: An eight-node SAN Volume Controller system (n = 8) 4096 volumes (v = 4096) One server with access to each volume (c = 1) Each host has four paths to each volume (p = 4) The calculation is rounded up to the next complete digit: ((8 * 7000) / (4096 * 4 * 1)) = 4 The queue depth in the operating systems must be set to four89 concurrent commands per path.90
QJ 风电公司企业标准 QJ/GF 01―02.06―2009 SVC 系统运行规程
发布 风电公司标准化委员会
实施 发布 1 目 SVC 系统运行规程 ...7 目 录 国际商业机器(中国)有限公司 数据移植实施方案 [客户名称] 基于 IBM SVC 的数据移植实施方案 客户名称] 第1章 章 1.1 概述 IBM SVC 数据移植实施...SVC及V7000数据迁移说明_计算机硬件及网络_IT/计算机_专业资料。SVC及V7000数据迁移说明 说明:V7000 的数据迁移与 SVC 的完全相同,以下为相关实施过程及原理文档。在...5)SVC 相关标准体系正在建立中,列入计划和正在实施的标准的内容基本 包含了 SVC 装置设计、生产、建设、运行等全过程。 6)从装置的运行使用情况看,国产化的 SVC...辽宁联通测试环境SVC数据整合方案以及实施计划_IT/计算机_专业资料。IBM SVC整合方案...新购存储配置与 LUN 的划分、配置 SVC 实施计划的制定,包括影射关系,连接和 ...IBM SVC(SAN Volume Controller)存储虚拟化产品具有通用性强、实施简 单的特点,透明地加入原有SAN 环境是SVC的基本功能。SVC是整个SAN 网络的控 制器,在SAN的...荣信电力电子股份有限公司 调试大纲 文件名称 RXSVC-11 型控制系统 (光电触发)调试大纲 工程名称 年 月 日 试行 年 月 日 实施 荣信电力电子股份有限公司 RX...2001 年 9 月荣信生产的 SVC 被国家科技部列为国家级重点新产品。2002 年 SVC 已实施项目居国内首 8 位,SVC 项目被国家经贸委列为重大技术装备创新研制项目。...4.7 工程实施与造价 SVC 工程实施比较容易,已有成熟工程应用经验。与 SVC 相比,SVG 受到 元器件容量限制,大容量的 SVG 实施困难用,工程造价相当高。 5.结论 SVC...svc资源与运营管理课程模拟题一及答案 电大开发教育复习资料电大开发教育复习资料隐藏...(A)计划 (B)组织 (C)实施 (D)控制 37.一家汽车公司今年卖了 12,000 ...
All rights reserved Powered by
copyright &copyright 。文档资料库内容来自网络,如有侵犯请联系客服。

我要回帖

更多关于 互联网 环境设计优势 的文章

 

随机推荐