本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
在节点 1 上重启 SAP HANA
描述:模拟运行主 SAP HANA 数据库的主站点节点崩溃。
运行节点:SAP HANA 主数据库节点
运行步骤:
-
以 root 用户身份使用以下命令使主数据库系统崩溃:
prihana:~ # crm status Stack: corosync Current DC: prihana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:09:44 2020 Last change: Thu Nov 12 12:09:11 2020 by root via crm_attribute on prihana 2 nodes configured 6 resources configured Online: [ prihana sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started prihana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ prihana ] Slaves: [ sechana ] prihana:~ # echo 'b' > /proc/sysrq-trigger
注意
要模拟系统崩溃,必须首先确保将其设置/proc/sys/kernel/sysrq
为 1。
预期结果:
-
群集检测到故障节点(节点 1),将其声明为 “
UNCLEAN
”,并将辅助节点(节点 2)设置为状态 “partition WITHOUT quorum
”。 -
集群围住节点 1,并将辅助的 SAP HANA 数据库(在节点 2 上)提升为主数据库。
sechana:~ # crm status Stack: corosync Current DC: prihana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:15:51 2020 Last change: Thu Nov 12 12:15:31 2020 by root via crm_attribute on sechana 2 nodes configured 6 resources configured Online: [ sechana ] OFFLINE: [ prihana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started sechana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started sechana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ sechana ] Stopped: [ prihana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ sechana ] Stopped: [ prihana ]
-
重叠 IP 地址已迁移到新的主地址(在节点 2 上)。
-
将
AUTOMATIC_REGISTER
参数设置为true
“” 后,集群会重新启动出现故障的 SAP HANA 数据库,并自动将其注册到新的主数据库。
恢复程序:
-
使用 AWS Management Console 或 AWS CLI 工具启动节点 1(EC2 实例),然后启动 Pacemaker(如果默认情况下未启用)。