在节点 2 上重启 SAP HANA - SAPHANAon AWS

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

在节点 2 上重启 SAP HANA

描述-模拟运行主 SAP HANA 数据库的主站点节点(在节点 2 上)崩溃。

运行节点 — 主要 SAP HANA 数据库节点(在节点 2 上)

运行步骤

  • 以 root 用户身份使用以下命令使主数据库系统(在节点 2 上)崩溃:

    sechana:~ # crm status Stack: corosync Current DC: sechana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:16:57 2020 Last change: Thu Nov 12 12:16:41 2020 by root via crm_attribute on sechana 2 nodes configured 6 resources configured Online: [ prihana sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started sechana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ sechana ] Slaves: [ prihana ] sechana:~ # echo 'b' > /proc/sysrq-trigger
注意

要模拟系统崩溃,必须首先确保将其设置/proc/sys/kernel/sysrq1

预期结果

  • 群集检测到故障节点(节点 2),将其声明为 “UNCLEAN”,并将辅助节点(节点 1)设置为状态 “partition WITHOUT quorum”。

  • 集群围住节点 2,并将辅助的 SAP HANA 数据库(在节点 1 上)提升为主数据库。

    prihana:~ # crm status Stack: corosync Current DC: prihana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:28:51 2020 Last change: Thu Nov 12 12:28:31 2020 by root via crm_attribute on prihana 2 nodes configured 6 resources configured Online: [ prihana ] OFFLINE: [ sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started prihana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana ] Stopped: [ sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ prihana ] Stopped: [ sechana ]
  • 重叠 IP 地址已迁移到新的主地址(在节点 1 上)。

  • AUTOMATIC_REGISTER参数设置为 true “” 后,集群会重新启动出现故障的 SAP HANA 数据库,并自动将其注册到新的主数据库。

恢复程序

  • 使用 AWS Management Console 或 AWS CLI 工具启动节点 2(EC2 实例),然后启动 Pacemaker(如果默认情况下未启用)。