01-正文
本章节下载: 01-正文 (2.35 MB)
SeerEngine-DC是一款数据中心控制组件,具有开放架构、高可靠性、高易用性和遵循标准等特点,支持Overlay网络、服务链等众多特性,能够为数据中心网络提供高效、可靠和灵活的管理和控制。
控制组件可在Matrix融合部署页面进行安装。具体安装流程如下。
表2-1 安装流程
|
步骤 |
具体操作 |
说明 |
|
准备服务器 |
根据组网需求,准备1台或3台服务器 |
必选 硬件和软件需求请参见“软硬件配置需求” |
|
获取安装包 |
根据实际功能需求、硬件配置以及资源档位关系,选择安装对应的组件及依赖的统一数字底盘应用 |
必选 安装包说明请参见“获取软件包” |
|
磁盘分区规划 |
必选 |
|
|
网络规划 |
可选 |
|
|
部署Matrix集群 |
在服务器上安装操作系统,并部署Matrix集群 |
必选 具体方法请参见配套的《H3C 统一数字底盘部署指导》 |
|
部署统一数字底盘 |
1. 部署Base必选应用包 2. 部署其他可选应用包 |
必选 具体方法请参见配套的《H3C 统一数字底盘部署指导》 |
|
在Matrix融合部署页面部署控制组件 |
可选 |
|
|
必选 |
||
|
必选 请在融合部署页面,将控制组件安装包上传并部署 |
||
|
必选 |
||
|
必选 |
||
|
必选 |
||
|
必选 |
控制组件支持单机和集群部署,推荐3机集群部署模式。
vBGP组件支持单机和集群部署。集群部署时需要两个节点,推荐与控制组件融合部署。
安装各个组件所需的服务器硬件资源要求,请参考资源计算工具。
SeerEngine-DC作为控制组件运行在统一数字底盘上,部署控制组件前需要先安装统一数字底盘。操作系统的支持情况请参见《H3C 统一数字底盘部署指导》。不同CPU的推荐操作系统如下表所示。
表3-1 不同CPU的推荐操作系统
|
CPU |
推荐操作系统 |
|
x86-64(Intel64/AMD64) |
磐宁NingOS |
|
x86-64海光 |
TencentOS 3.1 |
|
ARM鲲鹏 |
TencentOS 3.1 |
|
ARM飞腾 |
TencentOS 3.1 |
表3-2 操作系统检测项
|
检测项 |
检测标准 |
|
NTP检查 |
请检查系统时间已配置完成,建议配置NTP时间同步,整网使用统一的时钟源同步时间 |
|
服务器和操作系统兼容性 |
请参见以下链接,查看H3C服务器和操作系统的兼容性列表: |
用户不需要安装客户端软件,使用浏览器即可访问统一数字底盘。推荐使用的浏览器为Google Chrome 96及以上版本。
本文针对DC数据中心场景的安装包进行说明。对于DC智算中心场景,请参见《H3C AD-DC智算版安装指导》。
在DC数据中心场景中,请根据实际功能需求、硬件配置以及资源档位关系,选择安装对应的组件及依赖的统一数字底盘应用。
表3-3 软件安装包及场景说明
|
名称 |
功能说明 |
使用说明 |
|
|
数据中心场景组件 |
SeerEngine_DC-version-MATRIX.zip |
SeerEngine-DC组件的软件安装包 |
必选 |
|
vBGP-version-HELM-X64.zip |
混合Overlay场景用于BGP路由传递上报的组件 |
可选。具体请参见“部署vBGP” |
|
|
SeerEngine_DC_DTN-version.zip |
用于仿真业务功能部署的组件 |
可选。如果使用仿真功能,需要部署DTN组件和DTN物理主机,具体请参见《H3C SeerEngine-DC 仿真安装指导》 |
|
|
SeerEngine_Runbook-version-MATRIX.zip |
用于Runbook业务功能部署的组件 |
可选。具体请参见《H3C SeerEngine-Runbook 安装指导》 |
|
|
SeerEngine_Digitalmap-version-MATRIX.zip |
用于全景运维地图业务功能部署的组件 |
可选。具体请参见《H3C SeerEngine-DC 全景运维地图安装指导》 |
|
|
统一数字底盘 |
UDTP_Base_version_x86.zip |
基础服务组件:提供融合部署、用户管理、权限管理、资源管理、租户管理、菜单管理、日志中心、备份恢复和健康检查等基础功能 |
必选。低/标/高配都必须安装 |
|
BMP_Common_version_x86.zip |
(可选)通用服务组件:提供大屏管理、告警、告警聚合和告警订阅等功能 |
可选。仅标配和高配支持 |
|
|
BMP_Extension_version_x86.zip |
(可选)扩展服务组件:提供异地容灾、快照回滚、证书服务、自监控、智能算法库、单点登录和密码平台等功能 |
可选。仅标配和高配支持,依赖BMP_Common 部署异地灾备时必选,详细的异地灾备部署流程,请参见“异地灾备” |
|
· 组件和统一数字底盘的x86/ARM安装包功能和使用说明一致,文档示例均采用x86版本命名格式。
· 部分组件可能仅发布单一架构安装包(x86或ARM),以实际发布的版本文件为准。请根据服务器架构选择相应的安装包。
· 安装包名称格式中version为版本号。
在安装软件前,请先对软件包执行MD5验证,确保软件包的完整性和正确性。
请参见资源计算工具中的要求进行磁盘配置和磁盘分区,请勿使用自动分区。
在开始部署控制组件之前,请提前规划网络地址池。如需要部署vBGP,其网络规划请参见“部署vBGP”。
控制组件集群在创建过程中,会涉及到多个网络。如下图所示。
图4-1 组网规划
表4-1 网络说明
|
网络名称 |
说明 |
|
容器网络 |
控制组件集群间微服务通信的网络,用于集群系统的内部通信,容器网络的IP对外部不可见 |
|
南向网络 |
用于控制组件和南向设备进行通信,运行NETCONF、SNMP、OpenFlow等南向协议,控制组件的南向虚IP落在南向网络中,也可以称为南向设备管理网络 |
|
北向网络 |
用于用户登录宿主机、控制组件的Web页面访问和云平台对接等,控制组件的北向虚IP落在北向网络中,也称为宿主机管理网络 |
图4-2 组网说明
上述网络主要分为两种类型:Calico和MACVLAN。其中容器网络为Calico类型,南向网络和北向网络为MACVLAN类型。
· Calico
Calico是一个开源的网络和网络安全解决方案,适用于容器、虚拟机和基于主机的本地工作负载。Calico网络为容器间交互所使用的网络,为内部使用。Calico网络所使用的网段为部署Matrix集群时设置的容器IP地址池,默认为177.177.0.0,安装部署组件时无需再配置地址池给Calico网络使用。Calico网络和MACVLAN网络可复用同一个网口。
· MACVLAN
MACVLAN网络用来作为管理网络。MACVLAN虚拟网络技术可以实现一个物理网口绑定多个IP和多个MAC地址的功能。一些应用程序,尤其是遗留应用程序或监控网络流量的应用程序,希望直接连接到物理网络。在这种情况下,可以使用MACVLAN网络驱动程序为每个容器的虚拟网络接口分配一个MAC地址,使其看起来是一个直接连接到物理网络的物理网络接口。物理网口需要能够处理“混杂模式”,即一个物理接口可以分配多个MAC地址。
MACVLAN网络子网中的IP地址个数按照如下表格计算。
表4-2 子网IP地址池地址个数规划
|
组件名称 |
网络类型 |
最大集群成员个数 |
默认集群成员个数 |
IP地址计算方式 |
说明 |
|
SeerEngine-DC |
MACVLAN(南向网络) |
32 |
3 |
1*集群成员个数+1(集群IP) |
- |
具体的IP地址规划可参见下表。
表4-3 IP地址规划
|
组件名称 |
网络类型 |
IP地址 |
说明 |
|
SeerEngine-DC |
MACVLAN(南向网络) |
子网网段:192.168.12.0/24(网关为192.168.12.1) |
- |
|
网络地址池:192.168.12.101~192.168.12.132 |
在Matrix页面上部署统一数字底盘时,请遵循以下步骤:
(1) 先部署Base必选应用包。
(2) 完成后,再部署其他可选应用包。
有关应用包和硬件配置档位的关系,请参见“获取软件包”。本文以“标配”硬件配置档位为例。具体部署步骤请参见《H3C 统一数字底盘部署指导》。
支持在Matrix融合部署页面部署组件。各场景需要部署的组件及应用包请参见“获取软件包”。
本文以在融合部署页面部署SeerEngine-DC控制组件为例。
控制组件部署完成后,若需要再部署统一数字底盘的可选应用包,请确保可选应用包的版本与必选应用包的版本相同,否则可能导致部署失败。
操作系统对于网口名称存在字符长度限制,最长为15个字符。在配置VLAN子接口时,由于网口名称需要叠加VLAN子接口,最多会增加5个字符。为了避免名称超长导致网络配置下发失败,请确保使用的网口名称不超过10个字符。
如果服务器使用多个网口接入网络,部署前需要在服务器上启用网口。网口上的配置如下:
(1) 远程登录统一数字底盘所在服务器,在服务器上修改网口配置文件。此处以修改网口ens34的网口配置文件为例。
(2) 打开并编辑网口文件。
[root@node1 /]# vi /etc/sysconfig/network-scripts/ifcfg-ens34
(3) 将网口配置文件中的BOOTPROTO和ONBOOT修改为如下图所示。BOOTPROTO配置为none表示不指定网口的启动协议,ONBOOT配置为yes表示开机自动启用网口连接。

(4) 使用以下命令ifdown和ifup命令重启网口。
[root@node1 /]# ifdown ens34
[root@node1 /]# ifup ens34
(5) 使用ifconfig命令查看网络信息。若网口状态为UP则表示网口启用成功。
(1) 在浏览器中输入“https://ip_address:8443/matrix/ui”,登录Matrix。其中“ip_address”为北向业务虚IP地址。
(2) 单击[部署>融合部署]菜单项,进入融合部署页面。
图7-1 部署管理页面
(1) 单击<安装包管理>按钮,进入安装包管理页面。
图7-2 安装包管理页面
(2) 单击<上传>按钮,在弹出的对话框中单击<选择文件>按钮,选择组件安装包和需要部署的统一数字底盘应用包,再单击<上传>按钮上传到系统。
图7-3 上传安装包
(1) 在融合部署页面,单击<安装>按钮,进入安装导航页面。
图7-4 融合部署页面
(2) 在“应用选择”步骤,选择“DC数据中心场景”,在Data Center区域下,勾选“SeerEngine-DC”组件。单击<下一步>按钮。
图7-5 场景选择
图7-6 应用选择
在“安装包选择”步骤,选择数据中心场景的组件安装包。单击<下一步>按钮。
图7-7 选择控制组件版本
在“资源配置”步骤,根据硬件配置选择对应的资源档位,硬件配置与资源档位的支持关系请参见“切换资源档位”。本文以数据中心业务集选择“集群_默认规模”为例。单击<下一步>按钮。
图7-8 资源配置
在“参数配置”步骤,请根据导航栏进行相关参数配置。
所有组件的参数配置完成后,单击<部署>按钮,页面展示将部署的应用。单击<确定>按钮,开始部署。页面上将展示部署进度。
(1) 在部署方式步骤进行网络配置。
图7-9 部署方式页面
单击<创建网络>按钮,可在网络配置框中,按照网络规划,配置控制组件的南向网络。具体配置如下:
¡ 指定网络类型、网络名称,并按需配置VLAN。
VLAN用于隔离多个MACVLAN网络,确保它们可以共享同一个上行口而不相互干扰。
当灾备网络和控制组件南向网络共用网口时,需要配置VLAN来隔离这两个网络,确保网络通信的有效性。配置的VLAN需要与管理交换机上灾备网络网关的VLAN相同。
¡ 在“子网”区域,单击<创建>按钮,在弹出的对话框中指定子网名称、子网网段、网关等参数。配置完成后单击<确定>按钮。
¡ 在“主机”区域,对指定主机关联上行口。
¡ 单击<确定>按钮,完成此网络的配置。
图7-10 创建控制组件的南向网络
(2) 单击<下一步>进入节点绑定页面。在该页面单击<选择节点>按钮,在弹出的对话框中为节点绑定子网。选择完成后单击<确定>按钮。
图7-11 节点绑定
(3) 单击<下一步>进入节点信息确认页面。组件的IP地址自动从绑定的子网网段中分配,如需修改,可在此页面单击<上一步>按钮。输入的IP地址必须在组件绑定的网络中的子网网段范围内。
图7-12 节点信息确认
在主机Overlay或混合Overlay组网中,需要部署vBGP组件以实现BGP路由的传递上报。vBGP组件支持单机和集群部署。
Matrix融合部署页面支持部署vBGP组件。
在开始部署vBGP之前,请确保Matrix集群和所需的统一数字底盘应用包已经安装完成。具体请参见“部署Matrix集群”和“部署统一数字底盘”。
在开始部署vBGP之前,请根据需要提前规划网络地址池。
表8-1 vBGP使用的网络类型和数量
|
组件名称 |
网络类型 |
网络数量 |
说明 |
|
|
vBGP |
管理和业务网络合一 |
MACVLAN(管理网络) |
1 |
既用于vBGP和SeerEngine-DC之间的互通,又用于承载业务流量 |
|
管理和业务网络分离 |
MACVLAN(管理网络) |
1 |
仅用于vBGP和SeerEngine-DC之间的互通 |
|
|
MACVLAN(业务网络) |
1 |
仅用于承载业务流量 |
||
图8-1 云数据中心场景(集群部署vBGP且管理和业务网络分离)
图8-2 云数据中心场景(单机部署vBGP且管理和业务网络分离)
SeerEngine-DC南向网络与vBGP管理网络属于不同的网段,需要在连接对应网口的交换机上配置路由表项,实现SeerEngine-DC南向网络与vBGP管理网络的三层互通。
表8-2 网络说明
|
网络名称 |
说明 |
|
管理网络 |
针对控制组件的网络,使用eth1和控制组件的南向IP进行通信,运行NETCONF管理协议。 |
|
业务网络 |
在混合Overlay、部署BGP的场景下,vBGP的虚IP落在业务网络中。在实际部署中,管理网络和业务网通常分别落在两块网卡上,达到管理和业务隔离的效果。 |
MACVLAN网络子网中的IP地址个数建议按照如下表格计算。
表8-3 子网IP地址池地址个数规划
|
组件名称 |
网络类型 |
最大集群成员个数 |
默认集群成员个数 |
IP地址计算方式 |
|
|
vBGP |
管理和业务网络合一 |
MACVLAN(管理网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
|
管理和业务网络分离 |
MACVLAN(管理网络) |
2 |
2 |
1*集群成员个数 |
|
|
MACVLAN(业务网络) |
2 |
2 |
1*集群成员个数+1(集群IP) |
||
以vBGP集群模式下,vBGP管理和业务网络合一为例,具体的IP地址规划可参见下表。
表8-4 IP地址规划
|
组件名称 |
网络类型 |
IP地址 |
说明 |
|
vBGP |
MACVLAN(管理网络) |
子网网段:192.168.13.0/24(网关为192.168.13.1) |
管理和业务网络合一 |
|
网络地址池:192.168.13.101~192.168.13.132 |
(1) 在浏览器中输入“https://ip_address:8443/matrix/ui”,登录Matrix。其中“ip_address”为北向业务虚IP地址。
(2) 单击[部署>融合部署]菜单项,进入融合部署页面。
图8-3 融合部署页面
(1) 单击<安装包管理>按钮,进入安装包管理页面。本例以部署x86版本软件包“vBGP-E1123H01-HELM-X64.zip”为例。
图8-4 安装包管理页面
(2) 单击<上传>按钮,在弹出的对话框中单击<选择文件>按钮,选择组件安装包和需要部署的统一数字底盘应用包,再单击<上传>按钮上传到系统。
图8-5 上传安装包
(1) 在部署管理页面,单击<安装>按钮,进入安装导航页面。
(2) 在“应用选择”步骤,在场景选择区域,请按照实际需求选择“DC数据中心场景”或者“DC智算中心场景”,本文以“DC数据中心场景”为例。
图8-6 场景选择
(3) 在Data Center区域下,勾选“vBGP(可选)”。单击<下一步>按钮。
图8-7 勾选“vBGP(可选)”
在“安装包选择”步骤,在Data Center区域下选择vBGP安装包。单击<下一步>按钮。
图8-8 选择vBGP版本
在“资源配置”步骤,vBGP仅有一个规模档位,即默认规模。单击<下一步>按钮。
图8-9 资源配置
在“参数配置”步骤,请根据导航栏进行相关参数配置。
所有组件的参数配置完成后,单击<部署>按钮,页面展示将部署的应用。单击<确定>按钮,开始部署。页面上将展示部署进度。
(1) 选择网络方案,并进行网络配置。
a. 网络方案分为“管理和业务网络合一”和“管理和业务网络分离”。本文以选择“管理和业务网络合一”为例。
图8-10 选择网络方案
b. 单击<创建网络>按钮,可在网络配置框中,按照网络规划,配置各网络,具体配置如下:
- 指定网络类型、网络名称。并可以配置VLAN。
- 在“子网”区域,单击<创建>按钮,在弹出的对话框中指定子网名称、子网网段、网关等参数。配置完成后单击<确定>按钮。
- 在“主机”区域,对指定主机关联上行口。
- 单击<确定>按钮,完成此网络的配置。
图8-11 创建网络
(2) 单击<下一步>进入节点绑定页面。在该页面单击<选择节点>按钮,在弹出的对话框中为选择两个节点,并为节点绑定子网。选择完成后单击<确定>按钮。
图8-12 节点绑定
图8-13 选择节点
配置完成后,可在手动修改系统分配的IP地址和VRRP备份组号。
VRRP备份组号的取值范围为1~255,同一个网络中不能配置相同的VRRP备份组号。
图8-14 配置完成
(3) 单击<下一步>进入节点信息确认页面。组件的IP地址自动从绑定的子网网段中分配,如需修改,可在此页面单击<上一步>按钮。输入的IP地址必须在组件绑定的网络中的子网网段范围内。
图8-15 节点信息确认
控制组件部署完成后将在统一数字底盘中加载对应菜单项,登录统一数字底盘即可使用SeerEngine功能。
统一数字底盘提供友好的GUI界面。具体登录方式如下:
(1) 在浏览器中输入统一数字底盘登录地址(默认登录地址:http://ip_address:30000),回车后会进入如图所示登录界面。
¡ ip_address:为统一数字底盘所在的集群北向业务虚IP地址。
¡ 30000为端口号。
(2) 输入用户名密码登录统一数字底盘,缺省用户名为admin,密码为Pwd@12345。登录成功后进入主页面。
SeerEngine-DC安装完成后,可180天内试用所有功能,超过试用期限后,需要获取License授权才能正常使用。
关于授权的申请和安装过程,请参见《H3C软件产品远程授权License使用指南》。
在License Server上安装产品的授权后,只需在产品的License管理页面与License Server建立连接即可获取授权,操作步骤如下:
(1) 登录统一数字底盘,单击[系统>License管理>License信息]菜单项,进入License信息管理页面。
(2) 在页面中配置License Server信息的参数。各参数介绍请参见下表。
|
参数 |
说明 |
|
IP地址 |
安装License Server的服务器上用于组件集群内各节点之间通信的IP地址 |
|
端口号 |
此处缺省值为“5555”,与License Server授权服务端口号保持一致 |
|
客户端名称 |
License Server中设置的客户端名称 |
|
客户端密码 |
License Server中设置的客户端名称对应的密码 |
(3) 配置完成后,单击<连接>按钮与License Server建立连接,连接成功后组件可自动获取授权信息。
本章节介绍控制组件的升级及卸载步骤,统一数字底盘的升级及卸载步骤请参见《H3C 统一数字底盘部署指导》。
控制组件可在Matrix融合部署页面进行升级和卸载。
(1) 登录Matrix,进入[部署>融合部署]页面。
图12-1 融合部署页面
(4) 单击<上传>按钮,在弹出的对话框中单击<选择文件>按钮,选择待升级的安装包,选择完成后单击<上传>按钮。
图12-2 升级页面
(5) 勾选待升级的安装包后,单击<升级>按钮,完成组件升级。
图12-3 勾选升级包
控制组件版本升级后,请手动清除浏览器缓存后再重新登录。
组件的热补丁版本必须和基线版本一致。
在Matrix融合部署页面支持对控制组件进行补丁升级。补丁升级可能会导致控制组件业务中断,请谨慎操作。
升级步骤如下:
(1) 登录Matrix,进入[部署>融合部署]页面。
图12-4 融合部署页面
(3) 单击组件对应操作列的热补丁升级
图标,进入热补丁管理页面。
(4) 在热补丁管理页面单击<上传>按钮,在弹出的对话框中选择并上传待升级的热补丁安装包。
图12-5 上传热补丁安装包
(5) 勾选上传完成的热补丁安装包后,单击<升级>按钮,进行热补丁升级操作。
图12-6 热补丁升级
(6) 如热补丁升级失败,单击<回滚>按钮,可将组件回退到升级之前的版本;或者单击<终止升级>按钮,结束本次升级。
(1) 登录Matrix,进入[部署>融合部署]页面。
(2) 勾选待卸载组件左侧的复选框,单击<卸载>按钮,卸载指定的组件。
图12-7 卸载组件
卸载控制组件热补丁的具体操作如下:
(1) 登录Matrix,进入[部署>融合部署]页面。
图12-8 融合部署页面
(3) 单击控制组件对应操作列的热补丁升级
图标,进入热补丁管理页面。
(4) 在已安装热补丁的操作区段,单击<卸载>按钮,在弹出的对话框中选择热补丁回退到的基线版本,并确保基线安装包存在。
图12-9 单击热补丁卸载按钮
图12-10 卸载热补丁确认
(5) 单击<确定>按钮开始卸载热补丁。
资源档位切换是指在已经部署的组件中,可通过简单的操作实现对组件的资源配置进行动态调整。用户可以根据实际需求,在不中断服务的情况下,改变组件所使用的内存等资源规格,以优化性能和资源利用。
· 在进行资源档位切换时,需确保目标资源配置与所需硬件配置要求相符,以避免性能不足或不稳定的情况发生。
· 低配不支持异地灾备。
表13-1 资源档位参数说明
|
硬件配置需求说明 |
控制组件规格描述 |
控制组件资源档位 |
统一数字底盘资源档位 |
|
单机/集群部署,低配 |
50设备/600服务器 |
单机/集群_小规模 |
UDTP_Base:单机/集群_小规模 |
|
集群部署,标配 |
300设备/6000服务器 |
集群_默认规模 |
UDTP_Base:集群_中规模 BMP_Common:集群_中规模 |
|
集群部署,高配 |
1000设备/20000服务器 |
集群_大规模 |
UDTP_Base:集群_中规模 BMP_Common:集群_默认规模 |
操作步骤如下:
(1) 登录Matrix,进入[部署>融合部署]页面。
图13-2 融合部署页面
(2) 单击<资源配置>按钮,在数据中心场景区域,可根据当前的硬件配置选择对应的资源档位,硬件配置与资源档位的支持关系请参见上表。
图13-3 资源配置页面
(3) 配置完成后,单击<确认>按钮。
切换资源档位会引起控制组件重启,请谨慎操作。
控制组件扩容有以下两种情况:
· 单机部署模式扩容为集群部署模式
· 集群模式扩容
此种模式下,需在Matrix上同时增加两个Master节点并与原Master节点组成三机集群,然后依次扩容统一数字底盘和控制组件。
具体配置步骤请参见《H3C 统一数字底盘部署指导》。
(1) 登录Matrix,进入[部署>融合部署]页面。
图14-1 部署管理页面
(2) 单击<扩容>按钮,进入扩容页面,在对应控制组件页签下进行如下配置:
a. 在列表中选择需要扩容的主机,完成网络和主机上行口的关联。
b. 在集群信息区域选择子网,单击<确定>按钮。
图14-2 选择主机和配置集群信息
c. 在主机信息区域,检查并确认集群IP和容器内网卡IP是否正确无误。
图14-3 配置主机信息
(3) 确认所有信息无误后,单击页面右下角的<扩容>按钮,在弹出的对话框中进行扩容确认。
(4) 单击<确定>按钮开始扩容。扩容开始后,可在界面上监控扩容进度,确保扩容过程顺利完成。
(5) 扩容完成后,检查新扩容的组件是否正常运行。
此种模式下,一次仅可扩容一个Worker节点,需在Matrix上先增加Worker节点,部署集群,然后扩容控制组件。
(1) 扩容控制组件前需确保统一数字底盘Matrix集群中已添加Worker节点,具体步骤请参见《H3C 统一数字底盘部署指导》。
(2) 登录Matrix,进入[部署>融合部署]页面。
图14-4 融合部署页面
(3) 选择需要扩容的控制组件,单击操作区段的
按钮,进入扩容页面。
(4) 选择需要扩容的主机,完成网络和主机上行口的关联。单击<确认>按钮。
图14-5 扩容页面
(5) 在主机信息区域确定容器内网卡IP等信息。
图14-6 主机信息区域
(6) 单击<扩容>按钮,进行组件的扩容操作。
(7) 由于一次仅可扩容一个Worker节点,若有多个Worker节点需要扩容,在上个Worker节点扩容完成后,需重新进入在主机信息区域,单击<扩容>按钮,对剩余Worker节点进行依次扩容。
当组成集群的Master节点位于不同的网段时,需要通过集群跨三层部署方式组件集群。
集群跨三层部署不支持以下情况:
· 不支持异地灾备。
· vBGP组件不支持跨三层部署。
· 不支持Underlay IPv6部署。
因低版本的VMware使用的vmxnet虚拟网口可能会导致VXLAN帧中的TCP数据包长度计算错误,所以使用VMware部署跨三层集群时,请使用VMware ESXi 6.7P07 和 7.0U3 (7.0.3)或更高版本。
如上图所示,统一数字底盘集群的三个Master节点中,Master1和Master2位于Fabric1管理网络中,Master3位于Fabric2的管理网络中,Fabric1和Fabric2间的管理网络位于不同的网段,通过三层网络实现互通。需要使用跨三层部署方式建立统一数字底盘集群,IP地址规划如下表所示。
表15-1 IP地址规划
|
组件名称 |
地址规划名称 |
IP地址 |
地址说明 |
|
统一数字底盘集群 |
Master1节点IP |
192.168.10.102/24 |
默认网关为192.168.10.1,设置在管理交换机1上 |
|
Master2节点IP |
192.168.10.103/24 |
||
|
Master3节点IP |
192.168.110.104/24 |
默认网关为192.168.110.1,设置在管理交换机2上 |
|
|
集群内部虚IP |
192.168.10.101/32 |
- |
|
|
北向业务虚IP |
192.168.10.100/32 |
- |
|
|
SeerEngine-DC |
南向网络1(绑定Master1和Master2) |
子网网段:192.168.12.0/24 网络地址池:192.168.12.101-192.168.12.132 |
使用MACVLAN类型网络,默认网关为192.168.12.1,设置在管理交换机1上 |
|
南向网络2(绑定Master3) |
子网网段:192.168.112.0/24 网络地址池:192.168.112.101-192.168.112.132 |
使用MACVLAN类型网络,默认网关为192.168.112.1,设置在管理交换机2上 |
|
|
南向网络3(集群虚IP) |
子网网段:8.8.8.0/24 网络地址池:8.8.8.8-8.8.8.8 |
无需在交换机上设置网关IP地址 |
|
|
管理交换机 |
管理交换机1 |
Vlan-interface 10:192.168.10.1/24 192.168.12.1/24 Vlan-interface 20:192.168.20.9/30 |
· 将管理交换机1上连接Master1和Master2的接口加入VLAN 10中。本例以Ten-GigabitEthernet1/0/25、Ten-GigabitEthernet1/0/26为例,统一数字底盘节点管理网络和SeerEngine-DC南向网络使用同一网口。 · 将管理交换机1上连接管理交换机2的接口添加到VLAN 20中,以接口Ten-GigabitEthernet1/0/27为例。 |
|
管理交换机2 |
Vlan-interface 11:192.168.110.1/24 192.168.112.1/24 Vlan-interface 20:192.168.20.10/30 |
· 将管理交换机2上连接Master3的接口加入VLAN 11中。本例以Ten-GigabitEthernet1/0/25为例,统一数字底盘节点管理网络和SeerEngine-DC南向网络使用同一网口。 · 将管理交换机2上连接管理交换机1的接口添加到VLAN 20中,以接口Ten-GigabitEthernet1/0/26为例。 |
进行本章节配置前,需先完成Underlay路由相关配置,确保节点间IP地址能够三层互通、节点与两个网关IP地址能够三层互通。
(1) 管理交换机1配置如下:
[device1] vlan 10
[device1-vlan10] quit
[device1] interface Vlan-interface10
[device1-Vlan-interface10] ip address 192.168.10.1 255.255.255.0
[device1-Vlan-interface10] ip address 192.168.12.1 255.255.255.0 sub
[device1-Vlan-interface10] quit
[device1] vlan 20
[device1-vlan20] quit
[device1] interface Vlan-interface20
[device1-Vlan-interface20] ip address 192.168.20.9 255.255.255.252
[device1-Vlan-interface20] quit
[device1] interface Ten-GigabitEthernet1/0/25
[device1-Ten-GigabitEthernet1/0/25] port link-mode bridge
[device1-Ten-GigabitEthernet1/0/25] port access vlan 10
[device1-Ten-GigabitEthernet1/0/25] quit
[device1] interface Ten-GigabitEthernet1/0/26
[device1-Ten-GigabitEthernet1/0/26] port link-mode bridge
[device1-Ten-GigabitEthernet1/0/26] port access vlan 10
[device1-Ten-GigabitEthernet1/0/26] quit
[device1] interface Ten-GigabitEthernet1/0/27
[device1-Ten-GigabitEthernet1/0/27] port link-mode bridge
[device1-Ten-GigabitEthernet1/0/27] port access vlan 20
[device1-Ten-GigabitEthernet1/0/27] quit
[device1] ip route-static 192.168.110.0 255.255.255.0 192.168.20.10
(2) 管理交换机2配置如下:
[device2] vlan 11
[device2-vlan11] quit
[device2] vlan 20
[device2-vlan20] quit
[device2] interface Vlan-interface11
[device2-Vlan-interface11] ip address 192.168.110.1 255.255.255.0
[device2-Vlan-interface11] ip address 192.168.112.1 255.255.255.0 sub
[device2-Vlan-interface11] quit
[device2] vlan 20
[device2-vlan20] quit
[device2] interface Vlan-interface20
[device2-Vlan-interface20] ip address 192.168.20.10 255.255.255.252
[device2-Vlan-interface20] quit
[device2] interface Ten-GigabitEthernet1/0/25
[device2-Ten-GigabitEthernet1/0/25] port link-mode bridge
[device2-Ten-GigabitEthernet1/0/25] port access vlan 11
[device2-Ten-GigabitEthernet1/0/25] quit
[device2] interface Ten-GigabitEthernet1/0/26
[device2-Ten-GigabitEthernet1/0/26] port link-mode bridge
[device2-Ten-GigabitEthernet1/0/26] port access vlan 20
[device2-Ten-GigabitEthernet1/0/26] quit
[device2] ip route-static 192.168.10.0 255.255.255.0 192.168.20.9
本章节仅描述跨三层部署与普通的二层部署差异的配置,其他配置步骤请参见《H3C 统一数字底盘部署指导》。
(1) 在配置集群参数时,需要将集群网络模式配置为多子网。
(2) 增加三个集群Master节点时,需要配置BGP相关参数,节点参数配置如下表所示。以master1节点为例,如下图所示。
|
节点 |
IP地址 |
Local/Router ID |
Local/AS Number |
Peers/IP |
Peers/AS Number |
|
master1 |
192.168.10.102 |
192.168.10.102 |
100 |
192.168.10.1 |
100 |
|
master2 |
192.168.10.103 |
192.168.10.103 |
100 |
192.168.10.1 |
100 |
|
master3 |
192.168.110.104 |
192.168.110.104 |
200 |
192.168.110.1 |
200 |
(3) Matrix集群创建完成后,需在集群节点连接的交换机上配置BGP协议,配置举例如下:
管理交换机1配置如下:
[device1] bgp 100
[device1-bgp] peer 192.168.10.102 as-number 100
[device1-bgp] peer 192.168.10.102 connect-interface Vlan-interface 10
[device1-bgp] peer 192.168.10.103 as-number 100
[device1-bgp] peer 192.168.10.103 connect-interface Vlan-interface 10
[device1-bgp] peer 192.168.110.1 as-number 200
[device1-bgp] peer 192.168.110.1 connect-interface Vlan-interface 20
[device1-bgp] address-family ipv4 unicast
[device1-bgp-ipv4] peer 192.168.10.102 enable
[device1-bgp-ipv4] peer 192.168.10.103 enable
[device1-bgp-ipv4] peer 192.168.110.1 enable
管理交换机2配置如下:
[device2] bgp 200
[device2-bgp] peer 192.168.110.104 as-number 200
[device2-bgp] peer 192.168.110.104 connect-interface Vlan-interface 11
[device2-bgp] peer 192.168.10.1 as-number 100
[device2-bgp] peer 192.168.10.1 connect-interface Vlan-interface 20
[device2-bgp] address-family ipv4 unicast
[device2-bgp-ipv4] peer 192.168.110.104 enable
[device2-bgp-ipv4] peer 192.168.10.1 enable
本章节仅描述控制组件跨三层部署与普通的二层部署差异的内容,其他内容请参见章节“部署控制组件”。本章节以在统一数字底盘页面进行操作为例进行说明。
(1) 部署控制组件时,在参数配置步骤中,请按照网络规划创建对应的MACVLAN类型网络。
(2) 在节点绑定时,单击<选择节点>按钮,在弹出的对话框中为节点绑定对应的网络。
图15-5 节点绑定
(3) 单击<下一步>进入节点信息确认页面,确认各节点信息。
(4) 控制组件部署完成后,在控制组件页面配置每个集群节点的路由信息,可配置OSPF和BGP,本章节以配置BGP为例,参数配置信息如下表所示。以配置master1为例,如下图所示。
|
节点 |
BGP实例配置 |
Network |
Neighbor配置 |
||
|
Router ID |
AS Number |
Neighbor |
Remote AS |
||
|
master1 |
192.168.12.101 |
100 |
8.8.8.8/32 |
192.168.12.1 |
100 |
|
master2 |
192.168.12.102 |
100 |
8.8.8.8/32 |
192.168.12.1 |
100 |
|
master3 |
192.168.112.101 |
200 |
8.8.8.8/32 |
192.168.112.1 |
200 |
图15-6 master1节点路由配置
(5) 在控制组件页面完成路由配置以后,需在管理交换机上进行相应的路由配置,具体配置如下:
管理交换机1配置如下:
[device1] bgp 100
[device1-bgp] peer 192.168.12.101 as-number 100
[device1-bgp] peer 192.168.12.101 connect-interface Vlan-interface 10
[device1-bgp] peer 192.168.12.102 as-number 100
[device1-bgp] peer 192.168.12.102 connect-interface Vlan-interface 10
[device1-bgp] address-family ipv4 unicast
[device1-bgp-ipv4] peer 192.168.12.101 enable
[device1-bgp-ipv4] peer 192.168.12.102 enable
管理交换机2配置如下:
[device2] bgp 200
[device2-bgp] peer 192.168.112.101 as-number 200
[device2-bgp] peer 192.168.112.101 connect-interface Vlan-interface 11
[device2-bgp] address-family ipv4 unicast
[device2-bgp-ipv4] peer 192.168.112.101 enable
2+1+1模式是一种低成本的故障恢复模式,用户需要在原有集群的配置上,额外增加一台物理服务器作为冷备成员存在。部署时需要将控制组件集群的3个节点部署在两个不同的机柜或机房中,同时建议在集群系统之外额外预留一台服务器,作为支持故障出现时紧急处理的冗余节点。在集群正常工作时,备用冗余节点不需要上电工作。当集群出现两台Master节点同时故障,导致集群无法工作时,备用节点可以在用户加电启动后快速加入集群,做到快速的灾备恢复。
集群2+1+1部署流程如下:
准备4台服务器,其中3台用于安装统一数字底盘集群,1台作为备份服务器。4台服务器的网口需要完全一致。
将4台服务器安装至不同位置,推荐安装方式为:用于安装集群的2个服务器安装在一个机柜(或机房)中,用于安装集群的另一个服务器和备份服务器安装在另一个机柜(或机房)中。
在3台节点上安装统一数字底盘,安装步骤请参见《H3C 统一数字底盘部署指导》。3个节点的IP地址建议部署在同一网段中,且保证节点间能够互通。
在集群中部署控制组件,部署步骤请参见“部署控制组件”。
在备份服务器上安装Matrix,安装完成后无需部署统一数字底盘。需要注意的是,备份服务器上安装的Matrix版本需要与3台集群节点中安装的Matrix版本相同。
以集群节点分别为控制组件1、控制组件2和控制组件3为例,进行集群灾备操作前,需要准备以下工作:
记录集群中三个节点的主机名、网口名称、节点IP地址、用户名及密码。
在备用节点上预装与集群节点相同版本的Matrix。
· 备用节点的盘符合磁盘分区必须和三个节点保持一致。
· 若集群节点的统一数字底盘为补丁版本,在备用节点上预装Matrix时,请保证备用节点预装与集群节点相同版本的Matrix。
对于三个Leader节点的集群,当两个节点(例如控制组件1和2)都出现故障时,意味着集群系统的多数节点出现异常,这时集群系统不能正常工作,需要尽快干预恢复。整个系统仅有控制组件3能够登录,同时控制组件3将自动进入紧急模式。
图16-2 两节点故障
可通过如下操作步骤恢复集群:
(1) 对备用节点进行上电操作(不接入管理网络),确认是否已安装Matrix,如未安装,可参见《H3C 统一数字底盘部署指导》进行安装,安装完成后请勿配置集群。
(2) 确认备用节点的主机名、网口名称、节点IP地址、用户名及密码与两个故障节点中的其中一个(本例以控制组件1为例)完全一致。
(3) 断开故障节点控制组件1和2的网络连接,并将备用节点接入管理网络。
(4) 登录控制组件3的Matrix Web页面,进入[部署 > 集群 > 集群部署]页面,单击控制组件1节点右上角的“设置”图标
,在下拉菜单中选择“重建”选项,在弹出窗口中选择重建方式:
¡ 方式一:单击上传与当前节点相同版本的软件包进行节点重建,并上传重建文件,单击<应用>按钮。
¡ 方式二:单击使用系统中原有的节点部署文件进行重建,单击<应用>按钮。
(5) 节点重建完成后,集群即可正常工作,但当前页面仍处于紧急模式中,需退出并重新登录。建议使用北向业务虚IP重新登录Matrix Web页面。
在集群正常后,可以对原有物理服务器进行修复和恢复。如果使用全新的物理服务器代替异常控制组件2,那么需要登录Matrix Web页面进行修复操作。如果原有的控制组件2的文件系统能够恢复,并可正常启动,则控制组件可以在加电启动后自动加入集群。此时集群恢复到3台均可用的正常状态。
· 节点重建完成后,备用节点将以控制组件1的身份加入集群,原控制组件1故障恢复后不能直接再次加入集群,推荐对恢复后控制组件1执行硬盘数据格式化后再预装Matrix,作为新的备用节点。
· 如果两台控制组件出现异常,请勿在唯一正常的节点上执行重启操作,否则将无法通过此方式恢复集群。
控制组件E71xx及之后的版本仅支持使用统一数字底盘提供的灾备功能,需部署扩展服务组件安装包(BMP_Extension_version_platform.zip)后,在[系统>应急管理>异地容灾]页面配置灾备功能。
本功能用于配置数据中心控制组件异地灾备(RDR,Remote Disaster Recovery)。异地灾备系统是指处于异地的两个站点之间做主备灾备。异地灾备系统正常运行时,对外提供服务站点的数据实时向对端站点同步,确保两站点间的数据一致。用户可通过界面操作配置手动倒换,当对外提供服务的站点出现故障时,例如整站点断电、站点网络故障、站点和外界相连的链路故障,故障站点的业务可被另一个站点接管,保持业务连续性,减少损失。
手动模式:即灾备系统不会自动监测主站点和备站点上的组件状态,由用户控制和指定组件在站点上的主用或备用状态,可以通过接管和降备功能,切换组件在站点上主用或备用状态。使用手动模式时,需要在主备站点上各部署一套相同版本的统一数字底盘。
带仲裁的自动倒换模式:灾备系统会自动监测组件状态,若站点的组件或统一数字底盘发生故障,例如站点断电、网络故障等,灾备系统会通过仲裁服务,自动切换组件在不同站点上的状态。该模式下,支持用户进行手动切换。使用带仲裁的自动倒换模式需要在主备站点上各部署一套相同版本的统一数字底盘,同时再单独部署仲裁服务作为第三个站点。仲裁服务支持两种部署方式:独立部署和合并部署。
表17-1 仲裁服务部署方式说明
|
部署方式 |
说明 |
|
独立部署 |
采用一台独立物理服务器部署仲裁服务 |
|
合并部署 |
复用主备站点中的某台服务器部署仲裁服务 |
推荐使用独立部署方式,如果采用合并部署方式,当仲裁服务所在服务器发生故障时,仲裁服务可能同时失效,无法进行自动倒换,需要切换至手动倒换模式。
具体配置流程如下。
(1) 分别在主备站点部署统一数字底盘(需要部署BMP_Extension)。
(2) 分别在主备站点部署数据中心控制组件。
(3) 部署仲裁服务(带仲裁的自动倒换模式下使用)。
(4) 创建灾备系统。
· 异地灾备场景下,若使用Underlay自动化部署业务,在管理交换机上配置DHCP中继时,需要同时指定主站点和备站点的控制组件集群IP作为中继服务器。
· 使用异地灾备功能时,需保证主备站点的灾备数据同步网络和控制组件IP地址均不同。
· 混合Overlay场景下不支持灾备,即vBGP组件不支持灾备部署。
表17-2 异地灾备场景下各组件使用的网络类型和数量
|
站点名称 |
组件名称 |
网络类型 |
网络数量 |
说明 |
|
主/备站点 |
SeerEngine-DC |
MACVLAN(南向网络) |
1 |
- |
|
MACVLAN(灾备数据同步网络) |
1 |
· 用于主备站点之间的数据同步,承载数据实时同步的流量 · 确保主备站点的灾备数据同步网络可以二层互通 · 推荐单独使用一个网口 |
表17-3 异地灾备场景下子网IP地址池地址个数规划
|
站点 |
组件名称 |
网络类型 |
最大集群成员个数 |
默认集群成员个数 |
IP地址计算方式 |
说明 |
|
主/备站点 |
SeerEngine-DC |
MACVLAN(南向网络) |
32 |
3 |
1*集群成员个数+1(集群IP) |
- |
|
MACVLAN(灾备数据同步网络) |
32 |
3 |
1*集群成员个数 |
单独网口 |
异地灾备场景下具体的IP地址规划请参见下表。
表17-4 异地灾备场景的IP地址规划
|
站点 |
组件名称 |
网络类型 |
IP地址 |
说明 |
|
主站点 |
SeerEngine-DC |
MACVLAN(南向网络) |
子网网段:192.168.12.0/24(网关为192.168.12.1) |
- |
|
网络地址池:192.168.12.101~192.168.12.132 |
||||
|
MACVLAN(灾备数据同步网络) |
子网网段:192.168.16.0/24(网关为192.168.16.1) |
推荐单独网口 主备站点的灾备数据同步网络和DC组件南向网络的网段不同 |
||
|
网络地址池:192.168.16.101~192.168.16.132 |
||||
|
备站点 |
SeerEngine-DC |
MACVLAN(南向网络) |
子网网段:192.168.12.0/24(网关为192.168.12.1) |
- |
|
网络地址池:192.168.12.133~192.168.12.164 |
||||
|
MACVLAN(灾备数据同步网络) |
子网网段:192.168.16.0/24(网关为192.168.16.1) |
推荐单独网口 主备站点的灾备数据同步网络和DC组件南向网络的网段不同 |
||
|
网络地址池:192.168.16.133~192.168.16.164 |
· 主备站点的统一数字底盘版本需要一致,并配置相同的HTTP或HTTPS传输协议。
· 异地灾备功能不支持主备站点使用不同的IP版本。
主备站点上部署相同版本的统一数字底盘,步骤如下。
(1) 在主备站点上部署Matrix。配置过程请参见《H3C 统一数字底盘部署指导》。
(2) 在主备站点上部署统一数字底盘,请注意需要上传并部署包含异地灾备功能的安装包(BMP_Extension)。配置过程请参见《H3C 统一数字底盘部署指导》。主备站点需要配置相同的外置NTP服务器。
若指定备站点上已安装的组件未支持异地灾备功能或容灾关系不是备用,请先卸载后再安装。
(1) 获取数据中心控制组件安装包,主备站点上需部署相同版本的数据中心控制组件,且数据中心控制组件的安装包名称必须完全相同。
(2) 登录统一数字底盘页面,单击[部署>融合部署]菜单项,进入融合部署页面。
(3) 单击<安装包管理>按钮,将控制组件安装包上传到系统。上传完成后,回到融合部署页面单击<安装>按钮,进入应用选择页面。
选择“SeerEngine-DC”组件,单击<下一步>进行安装包选择。
图17-1 勾选“SeerEngine-DC”
在“安装包选择”步骤,选择数据中心场景的组件安装包。单击<下一步>按钮。
图17-2 安装包选择
在“资源配置”步骤,根据硬件配置选择对应的资源档位,硬件配置与资源档位的支持关系请参见“切换资源档位”。本文以数据中心业务集选择“集群_默认规模”为例。单击<下一步>按钮。
图17-3 资源配置
在“参数配置”步骤,请根据导航栏进行相关参数配置。
(1) 网络配置
按照章节“异地灾备场景的网络规划”中的网络规划,在主备站点上分别配置各组件所需的网络,关联上行口。
要求如下:单独配置一个MACVLAN类型网络作为灾备数据同步网络。
本例以主站点的网络配置为例。
图17-4 控制组件的南向网络配置
勾选全局异地灾备,配置灾备数据同步网络。
图17-5 勾选全局异地灾备
图17-6 灾备数据同步网络配置
单击<选择节点>按钮,配置南向网络和灾备数据同步网络,选择节点并对容器内网口IP进行确认。
图17-7 网络绑定
图17-8 节点绑定
组件的IP地址自动从绑定的子网网段中分配,如需修改,可在此页面单击<上一步>按钮。输入的IP地址必须在组件绑定的网络中的子网网段范围内。
图17-9 节点信息确认
(4) 确认无误后,单击<部署>按钮,开始部署。页面上将展示部署进度。
若使用带仲裁的自动倒换模式,需要单独部署仲裁服务作为第三个站点。具体部署步骤请参见《H3C 统一数字底盘部署指导》。
· 部署完成后,请在两个站点中选择一个站点作为主站点,在该站点的页面上创建灾备系统,无需在备站点上再次创建。
· 在创建灾备系统过程中,请保证主备站点间的网络连接处于正常状态,否则可能导致配置失败;若配置失败,请先确认网络连接是否正常。
· 创建灾备系统时,指定的主站点和备站点的登录用户名及密码必须相同。
· 灾备系统页面的数据不支持备份恢复,包括:主备站点名称、主备站点IP、备站点用户名密码、第三方站点IP等。
· 灾备系统创建后,主备站点上Matrix集群内部虚IP和节点IP均不允许修改。
(1) 登录主站点的统一数字底盘页面,单击[系统>应急管理>异地容灾]菜单项,进入灾备系统页面。
(2) 在站点配置区域输入主站点配置、备站点配置、倒换模式,单击<连接>按钮,等待灾备系统的站点配置完成。当心跳链路连接状态显示连接成功时,表示灾备系统的站点配置成功。站点配置成功后,备站点的用户、日志、备份恢复模块的配置将会自动和主站点同步,其中日志文件内容不会同步。
图17-10 创建灾备系统
在网络和系统稳定的情况下,如果需要进行灾备系统的手动倒换,操作步骤如下:
(1) 登录主用站点,进入[系统>应急管理>异地容灾]页面,在容灾关系配置区域,单击<降备>按钮,等待降备成功。
(2) 降备成功后,用户登录备用站点,进入[系统>应急管理>异地容灾]页面,在容灾关系配置区域,单击<升主>按钮,等待新主启动成功。
由于网络异常等情况造成原主站点异常,需要进行手动倒换的,此时如果原主站点页面无法访问,操作步骤如下:
(1) 通过黑洞路由/下电等操作,保证原主站点和设备之间的南向网络已经断开。
(2) 登录备用站点,进入[系统>应急管理>异地容灾]页面,在容灾关系配置区域,单击<升主>按钮,等待新主启动成功。
(3) 如果需要恢复原主站点,则需保证原主站点和设备之间的南向网络断开。等待原主以备用站点身份正常启动之后,才可以重新放开原主站点和设备之间的南向网络。
组件部署完成后,当网络中存在IP地址冲突或需要变更网络整体规划(如机房搬迁、子网掩码变更等)时,可对组件的网络进行变更。本章主要介绍控制组件的网络变更。
对组件进行网络变更会导致业务中断,请谨慎操作。
网络变更步骤如下:
(1) 登录Matrix,进入[部署>融合部署]页面。
图18-1 融合部署页面
(2) 单击组件左侧的
按钮,展开组件信息,单击组件的
按钮,进入网络变更向导页面。
(3) 在网络配置步骤,可以进行如下操作:
图18-2 网络变更向导页面
¡ 单击<创建网络>按钮,可以配置一个新的网络。
¡ 在已配置的网络中,单击<创建>按钮,在弹出的对话框中新增子网。
¡ 在主机区域创建或者修改主机的上行口。
(4) 单击<下一步>按钮,进入网络绑定步骤。选择需要绑定的网络和子网。
图18-4 网络绑定
(5) 单击<下一步>按钮,进入参数确认步骤。确认参数无误后,单击<确定>按钮,开始变更网络。页面上将展示网络变更进度。
图18-5 参数确认
(6) 如果网络变更失败,可单击<回滚>按钮,将网络回退到变更前状态;或单击<终止修改>按钮,退出网络变更流程。
网络变更后,与IP地址相关的部分配置需要手动进行修改。
若在[自动化>数据中心网络>Fabrics>参数设置>控制组件全局配置]中,已开启TFTP与Syslog服务。在网络变更后,请确认是否需要重新设置服务IP地址。
图18-6 重新设置服务IP地址
若在[系统>系统维护>数据中心控制组件>控制组件配置]中已进行了路由配置,在网络变更后需要重新进行配置。
图18-7 路由配置
若在[自动化>数据中心网络>Fabrics>自动化部署>配置片段]中,已增加的设备配置片段内容涉及控制组件的集群IP地址,在网络变更后,需要在配置片段内容中更新控制组件的集群IP地址,并将该配置片段下发至需要更新的设备上。
图18-8 配置片段页面
图18-9 修改配置片段
undo info-center loghost vpn-instance mgmt 192.168.89.10即删除旧的控制组件集群IP。
info-center loghost vpn-instance mgmt 192.168.89.11即设置新的控制组件集群IP。
若在[系统>系统维护>数据中心控制组件>控制组件配置]中配置了Region,在网络变更时会自动清空管理设备网段的配置,网络变更完成后需重新进行配置。
图18-10 修改Region
网络变更后,如果Matrix的集群北向业务虚IP地址变化,需要修改OpenStack Neutron插件配置中的URL配置项,具体请参考OpenStack插件的相关安装指导。
[SDNCONTROLLER]
url = http://127.0.0.1:30000
若License Server部署在Matrix集群中的一个节点上,且该节点的IP地址存在变更,在网络变更后需重新配置License Server信息。具体操作请参见“获取License授权”。
若在故障闭环功能中配置了分析组件信息,当Matrix北向业务虚IP发生变更时,分析组件中需要重新配置数据源管理中DC场景数据源的基本信息。配置步骤如下:
(1) 进入[分析>分析选项>资源管理>资产管理>数据源管理]页面。
(2) 单击DC场景对应数据源的“操作”区段的
按钮,在弹出的对话框中修改IP地址为新的Matrix北向业务虚IP。
(3) 单击<确定>按钮。
图18-11 数据源管理
图18-12 修改基本配置
若部署的vBGP为管理和业务网络分离模式,由于vBGP管理网络指向控制组件南向网络的明细路由不会主动刷新。在完成控制组件网络变更后,vBGP需要进行卸载并重新部署。
不同款型规格的资料略有差异, 详细信息请向具体销售和400咨询。H3C保留在没有任何通知或提示的情况下对资料内容进行修改的权利!
