本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
使节点 2 上的主数据库崩溃
描述-模拟主数据库系统的完整细分。
运行节点 — 主要 SAP HANA 数据库节点(在节点 2 上)。
运行步骤:
-
使用以下命令停止主数据库(在节点 2 上)系统
<sid>adm
。sechana:~ # su - hdbadm hdbadm@sechana:/usr/sap/HDB/HDB00> HDB kill -9 hdbenv.sh: Hostname sechana defined in $SAP_RETRIEVAL_PATH=/usr/sap/ HDB/HDB00/sechana differs from host name defined on command line. hdbenv.sh: Error: Instance not found for host -9 killing HDB processes: kill -9 30751 /usr/sap/HDB/HDB00/sechana/trace/hdb.sapHDB_HDB00 -d -nw -f /usr/sap/HDB/HDB00/sechana/daemon.ini pf=/usr/sap/HDB/SYS/profile/HDB_HDB00_sechana kill -9 30899 hdbnameserver kill -9 31166 hdbcompileserver kill -9 31168 hdbpreprocessor kill -9 31209 hdbindexserver -port 30003 kill -9 31211 hdbxsengine -port 30007 kill -9 31721 hdbwebdispatcher kill orphan HDB processes: kill -9 30899 [hdbnameserver] <defunct> kill -9 31209 [hdbindexserver] <defunct>
预期结果:
-
集群检测到已停止的主要 SAP HANA 数据库(在节点 2 上),并将辅助的 SAP HANA 数据库(在节点 1 上)提升为主数据库。
sechana:~ # crm status Stack: corosync Current DC: prihana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:04:01 2020 Last change: Thu Nov 12 12:03:53 2020 by root via crm_attribute on prihana 2 nodes configured 6 resources configured Online: [ prihana sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started prihana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ prihana ] Slaves: [ sechana ] Failed Actions: * rsc_SAPHana_HDB_HDB00_monitor_60000 on sechana 'master (failed)' (9): call=66, status=complete, exitreason='', last-rc-change='Thu Nov 12 11:58:53 2020', queued=0ms, exec=0ms
-
重叠 IP 地址已迁移到新的主地址(在节点 1 上)。
-
将
AUTOMATIC_REGISTER
参数设置为true
“” 后,集群会重新启动出现故障的 SAP HANA 数据库,并自动将其注册到新的主数据库。
恢复程序:
-
以 root 用户身份清理节点 2 上的集群 “
failed actions
”。sechana:~ # crm resource cleanup rsc_SAPHana_HDB_HDB00 sechana Cleaned up rsc_SAPHana_HDB_HDB00:0 on sechana Cleaned up rsc_SAPHana_HDB_HDB00:1 on sechana Waiting for 1 replies from the CRMd. OK
-
资源清理后,将清理群集 “
failed actions
”。