在节点 1 上重启 SAP HANA - SAPHANAon AWS

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

在节点 1 上重启 SAP HANA

描述:模拟运行主 SAP HANA 数据库的主站点节点崩溃。

运行节点:SAP HANA 主数据库节点

运行步骤

  • 以 root 用户身份使用以下命令使主数据库系统崩溃:

    prihana:~ # crm status Stack: corosync Current DC: prihana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:09:44 2020 Last change: Thu Nov 12 12:09:11 2020 by root via crm_attribute on prihana 2 nodes configured 6 resources configured Online: [ prihana sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started prihana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ prihana ] Slaves: [ sechana ] prihana:~ # echo 'b' > /proc/sysrq-trigger
注意

要模拟系统崩溃,必须首先确保将其设置/proc/sys/kernel/sysrq为 1。

预期结果

  • 群集检测到故障节点(节点 1),将其声明为 “UNCLEAN”,并将辅助节点(节点 2)设置为状态 “partition WITHOUT quorum”。

  • 集群围住节点 1,并将辅助的 SAP HANA 数据库(在节点 2 上)提升为主数据库。

    sechana:~ # crm status Stack: corosync Current DC: prihana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:15:51 2020 Last change: Thu Nov 12 12:15:31 2020 by root via crm_attribute on sechana 2 nodes configured 6 resources configured Online: [ sechana ] OFFLINE: [ prihana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started sechana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started sechana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ sechana ] Stopped: [ prihana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ sechana ] Stopped: [ prihana ]
  • 重叠 IP 地址已迁移到新的主地址(在节点 2 上)。

  • AUTOMATIC_REGISTER参数设置为 true “” 后,集群会重新启动出现故障的 SAP HANA 数据库,并自动将其注册到新的主数据库。

恢复程序

  • 使用 AWS Management Console 或 AWS CLI 工具启动节点 1(EC2 实例),然后启动 Pacemaker(如果默认情况下未启用)。