本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
在节点 2 上重启 SAP HANA
描述-模拟运行主 SAP HANA 数据库的主站点节点(在节点 2 上)崩溃。
运行节点 — 主要 SAP HANA 数据库节点(在节点 2 上)
运行步骤:
-
以 root 用户身份使用以下命令使主数据库系统(在节点 2 上)崩溃:
sechana:~ # crm status Stack: corosync Current DC: sechana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:16:57 2020 Last change: Thu Nov 12 12:16:41 2020 by root via crm_attribute on sechana 2 nodes configured 6 resources configured Online: [ prihana sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started sechana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ sechana ] Slaves: [ prihana ] sechana:~ # echo 'b' > /proc/sysrq-trigger
注意
要模拟系统崩溃,必须首先确保将其设置/proc/sys/kernel/sysrq
为1
。
预期结果:
-
群集检测到故障节点(节点 2),将其声明为 “
UNCLEAN
”,并将辅助节点(节点 1)设置为状态 “partition WITHOUT quorum
”。 -
集群围住节点 2,并将辅助的 SAP HANA 数据库(在节点 1 上)提升为主数据库。
prihana:~ # crm status Stack: corosync Current DC: prihana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:28:51 2020 Last change: Thu Nov 12 12:28:31 2020 by root via crm_attribute on prihana 2 nodes configured 6 resources configured Online: [ prihana ] OFFLINE: [ sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started prihana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana ] Stopped: [ sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ prihana ] Stopped: [ sechana ]
-
重叠 IP 地址已迁移到新的主地址(在节点 1 上)。
-
将
AUTOMATIC_REGISTER
参数设置为true
“” 后,集群会重新启动出现故障的 SAP HANA 数据库,并自动将其注册到新的主数据库。
恢复程序:
-
使用 AWS Management Console 或 AWS CLI 工具启动节点 2(EC2 实例),然后启动 Pacemaker(如果默认情况下未启用)。