Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Automatisieren Sie anwendungskonsistente Snapshots mit Data Lifecycle Manager
Sie können anwendungskonsistente Snapshots mit Amazon Data Lifecycle Manager automatisieren, indem Sie in Ihren Snapshot-Lebenszyklusrichtlinien Vor- und Nach-Skripts aktivieren, die auf Instances abzielen.
Amazon Data Lifecycle Manager ist in AWS Systems Manager (Systems Manager) integriert, um anwendungskonsistente Snapshots zu unterstützen. Amazon Data Lifecycle Manager verwendet Systems Manager (SSM) -Befehlsdokumente, die Vor- und Nachskripte enthalten, um die Aktionen zu automatisieren, die für die Erstellung anwendungskonsistenter Snapshots erforderlich sind. Bevor Amazon Data Lifecycle Manager die Snapshot-Erstellung initiiert, führt es die Befehle im Vor-Skript aus, um die I/O einzufrieren und zu leeren. Nachdem Amazon Data Lifecycle Manager die Snapshot-Erstellung initiiert hat, führt es die Befehle im Nach-Skript aus, um die I/O aufzutauen.
Amazon Data Lifecycle Manager ermöglicht die Automatisierung anwendungskonsistenter Snapshots der folgenden Elemente:
-
Windows-Anwendungen, die den Volume Shadow Copy Service verwenden () VSS
-
SAPHANAmithilfe eines AWS verwalteten SSDM Dokuments. Weitere Informationen finden Sie unter EBSAmazon-Snapshots für SAP HANA.
-
Selbstverwaltete Datenbanken wie MySQL, Postgre SQL oder mithilfe von InterSystems IRIS Dokumentvorlagen SSM
Anforderungen an die Verwendung von Vor- und Nach-Skripten
In der folgenden Tabelle werden die Anforderungen an die Verwendung von Vor- und Nach-Skripten mit Amazon Data Lifecycle Manager beschrieben.
|
Anwendungskonsistente Snapshots |
|
Anforderung |
VSSBackup |
Benutzerdefiniertes SSM Dokument |
Andere Anwendungsfälle |
SSMDer Agent ist auf den Zielinstanzen installiert und wird dort ausgeführt |
✓ |
✓ |
✓ |
VSSDie Systemanforderungen auf den Zielinstanzen wurden erfüllt |
✓ |
|
|
VSSaktiviertes Instanzprofil, das den Zielinstanzen zugeordnet ist |
✓ |
|
|
VSSKomponenten, die auf Zielinstanzen installiert sind |
✓ |
|
|
Bereiten Sie SSM das Dokument mit Pre- und Postscript-Befehlen vor |
|
✓ |
✓ |
Bereiten Sie die Amazon Data Lifecycle Manager IAM Manager-Rolle vor und nach der Ausführung von Skripten vor |
✓ |
✓ |
✓ |
Erstellen Sie eine Snapshot-Richtlinie, die auf Instances abzielt und für Vor- und Nachskripte konfiguriert ist |
✓ |
✓ |
✓ |
Erste Schritte mit anwendungskonsistenten Snapshots
In diesem Abschnitt werden die Schritte erläutert, die Sie ausführen müssen, um anwendungskonsistente Snapshots mit Amazon Data Lifecycle Manager zu automatisieren.
Sie müssen die Ziel-Instances für anwendungskonsistente Snapshots mit Amazon Data Lifecycle Manager vorbereiten. Führen Sie je nach Anwendungsfall einen der folgenden Schritte durch.
- Prepare for VSS Backups
-
- Prepare for SAP HANA backups
-
Um Ihre Zielinstanzen für SAP HANA Backups vorzubereiten
-
Bereiten Sie die SAP HANA Umgebung auf Ihren Zielinstanzen vor.
-
Richten Sie Ihre Instanz mit ein SAPHANA. Wenn Sie noch nicht über eine bestehende SAP HANA Umgebung verfügen, finden Sie unter SAPHANAUmgebungs-Setup weitere Informationen AWS.
-
Melden Sie sich als geeigneter Administratorbenutzer bei der SystemDB an.
-
Erstellen Sie einen Datenbank-Backup-Benutzer, der mit Amazon Data Lifecycle Manager verwendet werden soll.
CREATE USER username
PASSWORD password
NO FORCE_FIRST_PASSWORD_CHANGE;
Mit dem folgenden Befehl wird beispielsweise ein Benutzer mit dem Namen dlm_user
und dem Passwort password
erstellt.
CREATE USER dlm_user PASSWORD password NO FORCE_FIRST_PASSWORD_CHANGE;
-
Weisen Sie die BACKUP OPERATOR
-Rolle dem Datenbank-Backup-Benutzer zu, den Sie im vorherigen Schritt erstellt haben.
GRANT BACKUP OPERATOR TO username
Mit dem folgenden Befehl wird die Rolle beispielsweise einem Benutzer mit dem Namen dlm_user
zugewiesen.
GRANT BACKUP OPERATOR TO dlm_user
-
Melden Sie sich als Administrator beim Betriebssystem an, beispielsweise sid
adm
.
-
Erstellen Sie einen hdbuserstore
Eintrag, um Verbindungsinformationen zu speichern, sodass das SAP HANA SSM Dokument eine Verbindung herstellen kann, SAP HANA ohne dass Benutzer die Informationen eingeben müssen.
hdbuserstore set DLM_HANADB_SNAPSHOT_USER localhost:3hana_instance_number
13 username
password
Beispielsweise:
hdbuserstore set DLM_HANADB_SNAPSHOT_USER localhost:30013 dlm_user password
-
Testen Sie die Verbindung.
hdbsql -U DLM_HANADB_SNAPSHOT_USER "select * from dummy"
-
Installieren Sie den SSM Agenten auf Ihren Zielinstanzen, falls er nicht bereits installiert ist. Wenn der SSM Agent bereits auf Ihren Ziel-Instances installiert ist, überspringen Sie diesen Schritt.
Weitere Informationen finden Sie unter Manuelles Installieren des SSM Agenten auf EC2 Amazon-Instances für Linux.
-
Stellen Sie sicher, dass der SSM Agent läuft. Weitere Informationen finden Sie unter Überprüfen des SSM Agentenstatus und Starten des Agenten.
-
Richten Sie Systems Manager für EC2 Amazon-Instances ein. Weitere Informationen finden Sie im AWS Systems Manager Benutzerhandbuch unter Systems Manager für EC2 Amazon-Instances einrichten.
- Prepare for custom SSM documents
-
So bereiten Sie benutzerdefinierte SSM Dokumente für Ihre Ziel-Instances vor
-
Installieren Sie den SSM Agenten auf Ihren Zielinstanzen, falls er noch nicht installiert ist. Wenn der SSM Agent bereits auf Ihren Ziel-Instances installiert ist, überspringen Sie diesen Schritt.
-
Stellen Sie sicher, dass der SSM Agent läuft. Weitere Informationen finden Sie unter Überprüfen des SSM Agentenstatus und Starten des Agenten.
-
Richten Sie Systems Manager für EC2 Amazon-Instances ein. Weitere Informationen finden Sie im AWS Systems Manager Benutzerhandbuch unter Systems Manager für EC2 Amazon-Instances einrichten.
Dieser Schritt ist nur für benutzerdefinierte SSM Dokumente erforderlich. Es ist nicht für VSS Backup oder erforderlich SAPHANA. Für VSS Backups und SAP HANA verwendet Amazon Data Lifecycle Manager das AWS verwaltete SSM Dokument.
Wenn Sie anwendungskonsistente Snapshots für eine selbstverwaltete Datenbank wie MySQL, Postgre oder InterSystems IRIS automatisieren, müssen Sie ein SSM Befehlsdokument erstellenSQL, das ein Pre-Skript zum Einfrieren und Leeren von I/O vor der Snapshot-Erstellung und ein Post-Skript zum Auftauen von I/O nach der Snapshot-Erstellung enthält.
Wenn Ihre My-SQL, Postgre- oder InterSystems IRIS Datenbank Standardkonfigurationen verwendetSQL, können Sie anhand des folgenden Beispieldokumentinhalts ein SSM Befehlsdokument erstellen. SSM Wenn Ihre My-SQL, Postgre SQL - oder InterSystems IRIS Datenbank eine nicht standardmäßige Konfiguration verwendet, können Sie den folgenden Beispielinhalt als Ausgangspunkt für Ihr SSM Befehlsdokument verwenden und es dann an Ihre Anforderungen anpassen. Wenn Sie ein neues SSM Dokument von Grund auf neu erstellen möchten, können Sie alternativ die unten stehende leere SSM Dokumentvorlage verwenden und Ihre Pre- und Post-Befehle in den entsprechenden Dokumentabschnitten hinzufügen.
-
Es liegt in Ihrer Verantwortung, sicherzustellen, dass das SSM Dokument die richtigen und erforderlichen Aktionen für Ihre Datenbankkonfiguration ausführt.
-
Schnappschüsse sind nur dann garantiert anwendungskonsistent, wenn die Vor- und Nachskripte in Ihrem SSM Dokument I/O erfolgreich einfrieren, leeren und auftauen können.
-
Das SSM Dokument muss die erforderlichen Felder fürallowedValues
, einschließlich, und, enthalten. pre-script
post-script
dry-run
Amazon Data Lifecycle Manager führt Befehle auf Ihrer Instance basierend auf den Inhalten dieser Abschnitte aus. Wenn Ihr SSM Dokument diese Abschnitte nicht enthält, behandelt Amazon Data Lifecycle Manager es als fehlgeschlagene Ausführung.
- MySQL sample document content
-
###===============================================================================###
# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved.
# Permission is hereby granted, free of charge, to any person obtaining a copy of this
# software and associated documentation files (the "Software"), to deal in the Software
# without restriction, including without limitation the rights to use, copy, modify,
# merge, publish, distribute, sublicense, and/or sell copies of the Software, and to
# permit persons to whom the Software is furnished to do so.
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED,
# INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A
# PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT
# HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
# OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
# SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
###===============================================================================###
schemaVersion: '2.2'
description: Amazon Data Lifecycle Manager Pre/Post script for MySQL databases
parameters:
executionId:
type: String
default: None
description: (Required) Specifies the unique identifier associated with a pre and/or post execution
allowedPattern: ^(None|[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12})$
command:
# Data Lifecycle Manager will trigger the pre-script and post-script actions during policy execution.
# 'dry-run' option is intended for validating the document execution without triggering any commands
# on the instance. The following allowedValues will allow Data Lifecycle Manager to successfully
# trigger pre and post script actions.
type: String
default: 'dry-run'
description: (Required) Specifies whether pre-script and/or post-script should be executed.
allowedValues:
- pre-script
- post-script
- dry-run
mainSteps:
- action: aws:runShellScript
description: Run MySQL Database freeze/thaw commands
name: run_pre_post_scripts
precondition:
StringEquals:
- platformType
- Linux
inputs:
runCommand:
- |
#!/bin/bash
###===============================================================================###
### Error Codes
###===============================================================================###
# The following Error codes will inform Data Lifecycle Manager of the type of error
# and help guide handling of the error.
# The Error code will also be emitted via AWS Eventbridge events in the 'cause' field.
# 1 Pre-script failed during execution - 201
# 2 Post-script failed during execution - 202
# 3 Auto thaw occurred before post-script was initiated - 203
# 4 Pre-script initiated while post-script was expected - 204
# 5 Post-script initiated while pre-script was expected - 205
# 6 Application not ready for pre or post-script initiation - 206
###=================================================================###
### Global variables
###=================================================================###
START=$(date +%s)
# For testing this script locally, replace the below with OPERATION=$1.
OPERATION={{ command }}
FS_ALREADY_FROZEN_ERROR='freeze failed: Device or resource busy'
FS_ALREADY_THAWED_ERROR='unfreeze failed: Invalid argument'
FS_BUSY_ERROR='mount point is busy'
# Auto thaw is a fail safe mechanism to automatically unfreeze the application after the
# duration specified in the global variable below. Choose the duration based on your
# database application's tolerance to freeze.
export AUTO_THAW_DURATION_SECS="60"
# Add all pre-script actions to be performed within the function below
execute_pre_script() {
echo "INFO: Start execution of pre-script"
# Check if filesystem is already frozen. No error code indicates that filesystem
# is not currently frozen and that the pre-script can proceed with freezing the filesystem.
check_fs_freeze
# Execute the DB commands to flush the DB in preparation for snapshot
snap_db
# Freeze the filesystem. No error code indicates that filesystem was succefully frozen
freeze_fs
echo "INFO: Schedule Auto Thaw to execute in ${AUTO_THAW_DURATION_SECS} seconds."
$(nohup bash -c execute_schedule_auto_thaw >/dev/null 2>&1 &)
}
# Add all post-script actions to be performed within the function below
execute_post_script() {
echo "INFO: Start execution of post-script"
# Unfreeze the filesystem. No error code indicates that filesystem was successfully unfrozen.
unfreeze_fs
thaw_db
}
# Execute Auto Thaw to automatically unfreeze the application after the duration configured
# in the AUTO_THAW_DURATION_SECS global variable.
execute_schedule_auto_thaw() {
sleep ${AUTO_THAW_DURATION_SECS}
execute_post_script
}
# Disable Auto Thaw if it is still enabled
execute_disable_auto_thaw() {
echo "INFO: Attempting to disable auto thaw if enabled"
auto_thaw_pgid=$(pgrep -f execute_schedule_auto_thaw | xargs -i ps -hp {} -o pgid)
if [ -n "${auto_thaw_pgid}" ]; then
echo "INFO: execute_schedule_auto_thaw process found with pgid ${auto_thaw_pgid}"
sudo pkill -g ${auto_thaw_pgid}
rc=$?
if [ ${rc} != 0 ]; then
echo "ERROR: Unable to kill execute_schedule_auto_thaw process. retval=${rc}"
else
echo "INFO: Auto Thaw has been disabled"
fi
fi
}
# Iterate over all the mountpoints and check if filesystem is already in freeze state.
# Return error code 204 if any of the mount points are already frozen.
check_fs_freeze() {
for target in $(lsblk -nlo MOUNTPOINTS)
do
# Freeze of the root and boot filesystems is dangerous and pre-script does not freeze these filesystems.
# Hence, we will skip the root and boot mountpoints while checking if filesystem is in freeze state.
if [ $target == '/' ]; then continue; fi
if [[ "$target" == *"/boot"* ]]; then continue; fi
error_message=$(sudo mount -o remount,noatime $target 2>&1)
# Remount will be a no-op without a error message if the filesystem is unfrozen.
# However, if filesystem is already frozen, remount will fail with busy error message.
if [ $? -ne 0 ];then
# If the filesystem is already in frozen, return error code 204
if [[ "$error_message" == *"$FS_BUSY_ERROR"* ]];then
echo "ERROR: Filesystem ${target} already frozen. Return Error Code: 204"
exit 204
fi
# If the check filesystem freeze failed due to any reason other than the filesystem already frozen, return 201
echo "ERROR: Failed to check_fs_freeze on mountpoint $target due to error - $errormessage"
exit 201
fi
done
}
# Iterate over all the mountpoints and freeze the filesystem.
freeze_fs() {
for target in $(lsblk -nlo MOUNTPOINTS)
do
# Freeze of the root and boot filesystems is dangerous. Hence, skip filesystem freeze
# operations for root and boot mountpoints.
if [ $target == '/' ]; then continue; fi
if [[ "$target" == *"/boot"* ]]; then continue; fi
echo "INFO: Freezing $target"
error_message=$(sudo fsfreeze -f $target 2>&1)
if [ $? -ne 0 ];then
# If the filesystem is already in frozen, return error code 204
if [[ "$error_message" == *"$FS_ALREADY_FROZEN_ERROR"* ]]; then
echo "ERROR: Filesystem ${target} already frozen. Return Error Code: 204"
sudo mysql -e 'UNLOCK TABLES;'
exit 204
fi
# If the filesystem freeze failed due to any reason other than the filesystem already frozen, return 201
echo "ERROR: Failed to freeze mountpoint $targetdue due to error - $errormessage"
thaw_db
exit 201
fi
echo "INFO: Freezing complete on $target"
done
}
# Iterate over all the mountpoints and unfreeze the filesystem.
unfreeze_fs() {
for target in $(lsblk -nlo MOUNTPOINTS)
do
# Freeze of the root and boot filesystems is dangerous and pre-script does not freeze these filesystems.
# Hence, will skip the root and boot mountpoints during unfreeze as well.
if [ $target == '/' ]; then continue; fi
if [[ "$target" == *"/boot"* ]]; then continue; fi
echo "INFO: Thawing $target"
error_message=$(sudo fsfreeze -u $target 2>&1)
# Check if filesystem is already unfrozen (thawed). Return error code 204 if filesystem is already unfrozen.
if [ $? -ne 0 ]; then
if [[ "$error_message" == *"$FS_ALREADY_THAWED_ERROR"* ]]; then
echo "ERROR: Filesystem ${target} is already in thaw state. Return Error Code: 205"
exit 205
fi
# If the filesystem unfreeze failed due to any reason other than the filesystem already unfrozen, return 202
echo "ERROR: Failed to unfreeze mountpoint $targetdue due to error - $errormessage"
exit 202
fi
echo "INFO: Thaw complete on $target"
done
}
snap_db() {
# Run the flush command only when MySQL DB service is up and running
sudo systemctl is-active --quiet mysqld.service
if [ $? -eq 0 ]; then
echo "INFO: Execute MySQL Flush and Lock command."
sudo mysql -e 'FLUSH TABLES WITH READ LOCK;'
# If the MySQL Flush and Lock command did not succeed, return error code 201 to indicate pre-script failure
if [ $? -ne 0 ]; then
echo "ERROR: MySQL FLUSH TABLES WITH READ LOCK command failed."
exit 201
fi
sync
else
echo "INFO: MySQL service is inactive. Skipping execution of MySQL Flush and Lock command."
fi
}
thaw_db() {
# Run the unlock command only when MySQL DB service is up and running
sudo systemctl is-active --quiet mysqld.service
if [ $? -eq 0 ]; then
echo "INFO: Execute MySQL Unlock"
sudo mysql -e 'UNLOCK TABLES;'
else
echo "INFO: MySQL service is inactive. Skipping execution of MySQL Unlock command."
fi
}
export -f execute_schedule_auto_thaw
export -f execute_post_script
export -f unfreeze_fs
export -f thaw_db
# Debug logging for parameters passed to the SSM document
echo "INFO: ${OPERATION} starting at $(date) with executionId: ${EXECUTION_ID}"
# Based on the command parameter value execute the function that supports
# pre-script/post-script operation
case ${OPERATION} in
pre-script)
execute_pre_script
;;
post-script)
execute_post_script
execute_disable_auto_thaw
;;
dry-run)
echo "INFO: dry-run option invoked - taking no action"
;;
*)
echo "ERROR: Invalid command parameter passed. Please use either pre-script, post-script, dry-run."
exit 1 # return failure
;;
esac
END=$(date +%s)
# Debug Log for profiling the script time
echo "INFO: ${OPERATION} completed at $(date). Total runtime: $((${END} - ${START})) seconds."
- PostgreSQL sample document content
-
###===============================================================================###
# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved.
# Permission is hereby granted, free of charge, to any person obtaining a copy of this
# software and associated documentation files (the "Software"), to deal in the Software
# without restriction, including without limitation the rights to use, copy, modify,
# merge, publish, distribute, sublicense, and/or sell copies of the Software, and to
# permit persons to whom the Software is furnished to do so.
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED,
# INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A
# PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT
# HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
# OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
# SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
###===============================================================================###
schemaVersion: '2.2'
description: Amazon Data Lifecycle Manager Pre/Post script for PostgreSQL databases
parameters:
executionId:
type: String
default: None
description: (Required) Specifies the unique identifier associated with a pre and/or post execution
allowedPattern: ^(None|[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12})$
command:
# Data Lifecycle Manager will trigger the pre-script and post-script actions during policy execution.
# 'dry-run' option is intended for validating the document execution without triggering any commands
# on the instance. The following allowedValues will allow Data Lifecycle Manager to successfully
# trigger pre and post script actions.
type: String
default: 'dry-run'
description: (Required) Specifies whether pre-script and/or post-script should be executed.
allowedValues:
- pre-script
- post-script
- dry-run
mainSteps:
- action: aws:runShellScript
description: Run PostgreSQL Database freeze/thaw commands
name: run_pre_post_scripts
precondition:
StringEquals:
- platformType
- Linux
inputs:
runCommand:
- |
#!/bin/bash
###===============================================================================###
### Error Codes
###===============================================================================###
# The following Error codes will inform Data Lifecycle Manager of the type of error
# and help guide handling of the error.
# The Error code will also be emitted via AWS Eventbridge events in the 'cause' field.
# 1 Pre-script failed during execution - 201
# 2 Post-script failed during execution - 202
# 3 Auto thaw occurred before post-script was initiated - 203
# 4 Pre-script initiated while post-script was expected - 204
# 5 Post-script initiated while pre-script was expected - 205
# 6 Application not ready for pre or post-script initiation - 206
###===============================================================================###
### Global variables
###===============================================================================###
START=$(date +%s)
OPERATION={{ command }}
FS_ALREADY_FROZEN_ERROR='freeze failed: Device or resource busy'
FS_ALREADY_THAWED_ERROR='unfreeze failed: Invalid argument'
FS_BUSY_ERROR='mount point is busy'
# Auto thaw is a fail safe mechanism to automatically unfreeze the application after the
# duration specified in the global variable below. Choose the duration based on your
# database application's tolerance to freeze.
export AUTO_THAW_DURATION_SECS="60"
# Add all pre-script actions to be performed within the function below
execute_pre_script() {
echo "INFO: Start execution of pre-script"
# Check if filesystem is already frozen. No error code indicates that filesystem
# is not currently frozen and that the pre-script can proceed with freezing the filesystem.
check_fs_freeze
# Execute the DB commands to flush the DB in preparation for snapshot
snap_db
# Freeze the filesystem. No error code indicates that filesystem was succefully frozen
freeze_fs
echo "INFO: Schedule Auto Thaw to execute in ${AUTO_THAW_DURATION_SECS} seconds."
$(nohup bash -c execute_schedule_auto_thaw >/dev/null 2>&1 &)
}
# Add all post-script actions to be performed within the function below
execute_post_script() {
echo "INFO: Start execution of post-script"
# Unfreeze the filesystem. No error code indicates that filesystem was successfully unfrozen
unfreeze_fs
}
# Execute Auto Thaw to automatically unfreeze the application after the duration configured
# in the AUTO_THAW_DURATION_SECS global variable.
execute_schedule_auto_thaw() {
sleep ${AUTO_THAW_DURATION_SECS}
execute_post_script
}
# Disable Auto Thaw if it is still enabled
execute_disable_auto_thaw() {
echo "INFO: Attempting to disable auto thaw if enabled"
auto_thaw_pgid=$(pgrep -f execute_schedule_auto_thaw | xargs -i ps -hp {} -o pgid)
if [ -n "${auto_thaw_pgid}" ]; then
echo "INFO: execute_schedule_auto_thaw process found with pgid ${auto_thaw_pgid}"
sudo pkill -g ${auto_thaw_pgid}
rc=$?
if [ ${rc} != 0 ]; then
echo "ERROR: Unable to kill execute_schedule_auto_thaw process. retval=${rc}"
else
echo "INFO: Auto Thaw has been disabled"
fi
fi
}
# Iterate over all the mountpoints and check if filesystem is already in freeze state.
# Return error code 204 if any of the mount points are already frozen.
check_fs_freeze() {
for target in $(lsblk -nlo MOUNTPOINTS)
do
# Freeze of the root and boot filesystems is dangerous and pre-script does not freeze these filesystems.
# Hence, we will skip the root and boot mountpoints while checking if filesystem is in freeze state.
if [ $target == '/' ]; then continue; fi
if [[ "$target" == *"/boot"* ]]; then continue; fi
error_message=$(sudo mount -o remount,noatime $target 2>&1)
# Remount will be a no-op without a error message if the filesystem is unfrozen.
# However, if filesystem is already frozen, remount will fail with busy error message.
if [ $? -ne 0 ];then
# If the filesystem is already in frozen, return error code 204
if [[ "$error_message" == *"$FS_BUSY_ERROR"* ]];then
echo "ERROR: Filesystem ${target} already frozen. Return Error Code: 204"
exit 204
fi
# If the check filesystem freeze failed due to any reason other than the filesystem already frozen, return 201
echo "ERROR: Failed to check_fs_freeze on mountpoint $target due to error - $errormessage"
exit 201
fi
done
}
# Iterate over all the mountpoints and freeze the filesystem.
freeze_fs() {
for target in $(lsblk -nlo MOUNTPOINTS)
do
# Freeze of the root and boot filesystems is dangerous. Hence, skip filesystem freeze
# operations for root and boot mountpoints.
if [ $target == '/' ]; then continue; fi
if [[ "$target" == *"/boot"* ]]; then continue; fi
echo "INFO: Freezing $target"
error_message=$(sudo fsfreeze -f $target 2>&1)
if [ $? -ne 0 ];then
# If the filesystem is already in frozen, return error code 204
if [[ "$error_message" == *"$FS_ALREADY_FROZEN_ERROR"* ]]; then
echo "ERROR: Filesystem ${target} already frozen. Return Error Code: 204"
exit 204
fi
# If the filesystem freeze failed due to any reason other than the filesystem already frozen, return 201
echo "ERROR: Failed to freeze mountpoint $targetdue due to error - $errormessage"
exit 201
fi
echo "INFO: Freezing complete on $target"
done
}
# Iterate over all the mountpoints and unfreeze the filesystem.
unfreeze_fs() {
for target in $(lsblk -nlo MOUNTPOINTS)
do
# Freeze of the root and boot filesystems is dangerous and pre-script does not freeze these filesystems.
# Hence, will skip the root and boot mountpoints during unfreeze as well.
if [ $target == '/' ]; then continue; fi
if [[ "$target" == *"/boot"* ]]; then continue; fi
echo "INFO: Thawing $target"
error_message=$(sudo fsfreeze -u $target 2>&1)
# Check if filesystem is already unfrozen (thawed). Return error code 204 if filesystem is already unfrozen.
if [ $? -ne 0 ]; then
if [[ "$error_message" == *"$FS_ALREADY_THAWED_ERROR"* ]]; then
echo "ERROR: Filesystem ${target} is already in thaw state. Return Error Code: 205"
exit 205
fi
# If the filesystem unfreeze failed due to any reason other than the filesystem already unfrozen, return 202
echo "ERROR: Failed to unfreeze mountpoint $targetdue due to error - $errormessage"
exit 202
fi
echo "INFO: Thaw complete on $target"
done
}
snap_db() {
# Run the flush command only when PostgreSQL DB service is up and running
sudo systemctl is-active --quiet postgresql
if [ $? -eq 0 ]; then
echo "INFO: Execute Postgres CHECKPOINT"
# PostgreSQL command to flush the transactions in memory to disk
sudo -u postgres psql -c 'CHECKPOINT;'
# If the PostgreSQL Command did not succeed, return error code 201 to indicate pre-script failure
if [ $? -ne 0 ]; then
echo "ERROR: Postgres CHECKPOINT command failed."
exit 201
fi
sync
else
echo "INFO: PostgreSQL service is inactive. Skipping execution of CHECKPOINT command."
fi
}
export -f execute_schedule_auto_thaw
export -f execute_post_script
export -f unfreeze_fs
# Debug logging for parameters passed to the SSM document
echo "INFO: ${OPERATION} starting at $(date) with executionId: ${EXECUTION_ID}"
# Based on the command parameter value execute the function that supports
# pre-script/post-script operation
case ${OPERATION} in
pre-script)
execute_pre_script
;;
post-script)
execute_post_script
execute_disable_auto_thaw
;;
dry-run)
echo "INFO: dry-run option invoked - taking no action"
;;
*)
echo "ERROR: Invalid command parameter passed. Please use either pre-script, post-script, dry-run."
exit 1 # return failure
;;
esac
END=$(date +%s)
# Debug Log for profiling the script time
echo "INFO: ${OPERATION} completed at $(date). Total runtime: $((${END} - ${START})) seconds."
- InterSystems IRIS sample document content
-
###===============================================================================###
# MIT License
#
# Copyright (c) 2024 InterSystems
#
# Permission is hereby granted, free of charge, to any person obtaining a copy
# of this software and associated documentation files (the "Software"), to deal
# in the Software without restriction, including without limitation the rights
# to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
# copies of the Software, and to permit persons to whom the Software is
# furnished to do so, subject to the following conditions:
#
# The above copyright notice and this permission notice shall be included in all
# copies or substantial portions of the Software.
#
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
# IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
# FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
# AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
# LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
# OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
# SOFTWARE.
###===============================================================================###
schemaVersion: '2.2'
description: SSM Document Template for Amazon Data Lifecycle Manager Pre/Post script feature for InterSystems IRIS.
parameters:
executionId:
type: String
default: None
description: Specifies the unique identifier associated with a pre and/or post execution
allowedPattern: ^(None|[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12})$
command:
type: String
# Data Lifecycle Manager will trigger the pre-script and post-script actions. You can also use this SSM document with 'dry-run' for manual testing purposes.
default: 'dry-run'
description: (Required) Specifies whether pre-script and/or post-script should be executed.
#The following allowedValues will allow Data Lifecycle Manager to successfully trigger pre and post script actions.
allowedValues:
- pre-script
- post-script
- dry-run
mainSteps:
- action: aws:runShellScript
description: Run InterSystems IRIS Database freeze/thaw commands
name: run_pre_post_scripts
precondition:
StringEquals:
- platformType
- Linux
inputs:
runCommand:
- |
#!/bin/bash
###===============================================================================###
### Global variables
###===============================================================================###
DOCKER_NAME=iris
LOGDIR=./
EXIT_CODE=0
OPERATION={{ command }}
START=$(date +%s)
# Check if Docker is installed
# By default if Docker is present, script assumes that InterSystems IRIS is running in Docker
# Leave only the else block DOCKER_EXEC line, if you run InterSystems IRIS non-containerised (and Docker is present).
# Script assumes irissys user has OS auth enabled, change the OS user or supply login/password depending on your configuration.
if command -v docker &> /dev/null
then
DOCKER_EXEC="docker exec $DOCKER_NAME"
else
DOCKER_EXEC="sudo -i -u irissys"
fi
# Add all pre-script actions to be performed within the function below
execute_pre_script() {
echo "INFO: Start execution of pre-script"
# find all iris running instances
iris_instances=$($DOCKER_EXEC iris qall 2>/dev/null | tail -n +3 | grep '^up' | cut -c5- | awk '{print $1}')
echo "`date`: Running iris instances $iris_instances"
# Only for running instances
for INST in $iris_instances; do
echo "`date`: Attempting to freeze $INST"
# Detailed instances specific log
LOGFILE=$LOGDIR/$INST-pre_post.log
#check Freeze status before starting
$DOCKER_EXEC irissession $INST -U '%SYS' "##Class(Backup.General).IsWDSuspendedExt()"
freeze_status=$?
if [ $freeze_status -eq 5 ]; then
echo "`date`: ERROR: $INST IS already FROZEN"
EXIT_CODE=204
else
echo "`date`: $INST is not frozen"
# Freeze
# Docs: https://docs.intersystems.com/irislatest/csp/documatic/%25CSP.Documatic.cls?LIBRARY=%25SYS&CLASSNAME=Backup.General#ExternalFreeze
$DOCKER_EXEC irissession $INST -U '%SYS' "##Class(Backup.General).ExternalFreeze(\"$LOGFILE\",,,,,,600,,,300)"
status=$?
case $status in
5) echo "`date`: $INST IS FROZEN"
;;
3) echo "`date`: $INST FREEZE FAILED"
EXIT_CODE=201
;;
*) echo "`date`: ERROR: Unknown status code: $status"
EXIT_CODE=201
;;
esac
echo "`date`: Completed freeze of $INST"
fi
done
echo "`date`: Pre freeze script finished"
}
# Add all post-script actions to be performed within the function below
execute_post_script() {
echo "INFO: Start execution of post-script"
# find all iris running instances
iris_instances=$($DOCKER_EXEC iris qall 2>/dev/null | tail -n +3 | grep '^up' | cut -c5- | awk '{print $1}')
echo "`date`: Running iris instances $iris_instances"
# Only for running instances
for INST in $iris_instances; do
echo "`date`: Attempting to thaw $INST"
# Detailed instances specific log
LOGFILE=$LOGDIR/$INST-pre_post.log
#check Freeze status befor starting
$DOCKER_EXEC irissession $INST -U '%SYS' "##Class(Backup.General).IsWDSuspendedExt()"
freeze_status=$?
if [ $freeze_status -eq 5 ]; then
echo "`date`: $INST is in frozen state"
# Thaw
# Docs: https://docs.intersystems.com/irislatest/csp/documatic/%25CSP.Documatic.cls?LIBRARY=%25SYS&CLASSNAME=Backup.General#ExternalFreeze
$DOCKER_EXEC irissession $INST -U%SYS "##Class(Backup.General).ExternalThaw(\"$LOGFILE\")"
status=$?
case $status in
5) echo "`date`: $INST IS THAWED"
$DOCKER_EXEC irissession $INST -U%SYS "##Class(Backup.General).ExternalSetHistory(\"$LOGFILE\")"
;;
3) echo "`date`: $INST THAW FAILED"
EXIT_CODE=202
;;
*) echo "`date`: ERROR: Unknown status code: $status"
EXIT_CODE=202
;;
esac
echo "`date`: Completed thaw of $INST"
else
echo "`date`: ERROR: $INST IS already THAWED"
EXIT_CODE=205
fi
done
echo "`date`: Post thaw script finished"
}
# Debug logging for parameters passed to the SSM document
echo "INFO: ${OPERATION} starting at $(date) with executionId: ${EXECUTION_ID}"
# Based on the command parameter value execute the function that supports
# pre-script/post-script operation
case ${OPERATION} in
pre-script)
execute_pre_script
;;
post-script)
execute_post_script
;;
dry-run)
echo "INFO: dry-run option invoked - taking no action"
;;
*)
echo "ERROR: Invalid command parameter passed. Please use either pre-script, post-script, dry-run."
# return failure
EXIT_CODE=1
;;
esac
END=$(date +%s)
# Debug Log for profiling the script time
echo "INFO: ${OPERATION} completed at $(date). Total runtime: $((${END} - ${START})) seconds."
exit $EXIT_CODE
Weitere Informationen finden Sie im GitHub Repository.
- Empty document template
-
###===============================================================================###
# Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved.
# Permission is hereby granted, free of charge, to any person obtaining a copy of this
# software and associated documentation files (the "Software"), to deal in the Software
# without restriction, including without limitation the rights to use, copy, modify,
# merge, publish, distribute, sublicense, and/or sell copies of the Software, and to
# permit persons to whom the Software is furnished to do so.
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED,
# INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A
# PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT
# HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION
# OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE
# SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
###===============================================================================###
schemaVersion: '2.2'
description: SSM Document Template for Amazon Data Lifecycle Manager Pre/Post script feature
parameters:
executionId:
type: String
default: None
description: (Required) Specifies the unique identifier associated with a pre and/or post execution
allowedPattern: ^(None|[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12})$
command:
# Data Lifecycle Manager will trigger the pre-script and post-script actions during policy execution.
# 'dry-run' option is intended for validating the document execution without triggering any commands
# on the instance. The following allowedValues will allow Data Lifecycle Manager to successfully
# trigger pre and post script actions.
type: String
default: 'dry-run'
description: (Required) Specifies whether pre-script and/or post-script should be executed.
allowedValues:
- pre-script
- post-script
- dry-run
mainSteps:
- action: aws:runShellScript
description: Run Database freeze/thaw commands
name: run_pre_post_scripts
precondition:
StringEquals:
- platformType
- Linux
inputs:
runCommand:
- |
#!/bin/bash
###===============================================================================###
### Error Codes
###===============================================================================###
# The following Error codes will inform Data Lifecycle Manager of the type of error
# and help guide handling of the error.
# The Error code will also be emitted via AWS Eventbridge events in the 'cause' field.
# 1 Pre-script failed during execution - 201
# 2 Post-script failed during execution - 202
# 3 Auto thaw occurred before post-script was initiated - 203
# 4 Pre-script initiated while post-script was expected - 204
# 5 Post-script initiated while pre-script was expected - 205
# 6 Application not ready for pre or post-script initiation - 206
###===============================================================================###
### Global variables
###===============================================================================###
START=$(date +%s)
# For testing this script locally, replace the below with OPERATION=$1.
OPERATION={{ command }}
# Add all pre-script actions to be performed within the function below
execute_pre_script() {
echo "INFO: Start execution of pre-script"
}
# Add all post-script actions to be performed within the function below
execute_post_script() {
echo "INFO: Start execution of post-script"
}
# Debug logging for parameters passed to the SSM document
echo "INFO: ${OPERATION} starting at $(date) with executionId: ${EXECUTION_ID}"
# Based on the command parameter value execute the function that supports
# pre-script/post-script operation
case ${OPERATION} in
pre-script)
execute_pre_script
;;
post-script)
execute_post_script
;;
dry-run)
echo "INFO: dry-run option invoked - taking no action"
;;
*)
echo "ERROR: Invalid command parameter passed. Please use either pre-script, post-script, dry-run."
exit 1 # return failure
;;
esac
END=$(date +%s)
# Debug Log for profiling the script time
echo "INFO: ${OPERATION} completed at $(date). Total runtime: $((${END} - ${START})) seconds."
Sobald Sie den Inhalt Ihres SSM Dokuments haben, verwenden Sie eines der folgenden Verfahren, um das benutzerdefinierte SSM Dokument zu erstellen.
- Console
-
Um das SSM Befehlsdokument zu erstellen
-
Öffnen Sie die AWS Systems Manager Konsole unter https://console.aws.amazon.com//systems-manager/.
-
Wählen Sie im Navigationsbereich Dokumente und dann Dokument erstellen, Befehl oder Sitzung aus.
-
Geben Sie unter Name einen aussagekräftigen Namen für das Dokument ein.
-
Wählen Sie als Zieltyp/AWS::EC2: :Instance aus.
-
Wählen Sie als Dokumenttyp Befehl.
-
Wählen Sie im Feld Inhalt den Dokumentinhalt aus YAMLund fügen Sie ihn ein.
-
Fügen Sie im Abschnitt Dokument-Tags ein Tag mit einem Tag-Schlüssel von DLMScriptsAccess
und einem Tag-Wert von true
hinzu.
Das DLMScriptsAccess:true
Tag ist für die AWSDataLifecycleManagerSSMFullAccess AWS verwaltete Richtlinie erforderlich, die in Schritt 3: Amazon Data Lifecycle Manager IAM Manager-Rolle vorbereiten verwendet wird. Die Richtlinie verwendet den aws:ResourceTag
Bedingungsschlüssel, um den Zugriff auf SSM Dokumente mit diesem Tag einzuschränken.
-
Wählen Sie Create document (Dokument erstellen) aus.
- AWS CLI
-
Um das SSM Befehlsdokument zu erstellen
Verwenden Sie den Befehl create-document. Geben Sie für --name
einen beschreibenden Namen für das Dokument ein. Legen Sie für --document-type
die Option Command
fest. Geben Sie für --content
den Pfad zur .yaml-Datei mit dem SSM Dokumentinhalt an. Legen Sie für --tags
die Option "Key=DLMScriptsAccess,Value=true"
fest.
$
aws ssm create-document \
--content file://path/to/file/documentContent.yaml
\
--name "document_name
" \
--document-type "Command" \
--document-format YAML \
--tags "Key=DLMScriptsAccess,Value=true"
Dieser Schritt ist erforderlich, wenn:
-
Sie erstellen oder aktualisieren eine Snapshot-Richtlinie mit aktiviertem Pre-/Post-Skript, die eine benutzerdefinierte Rolle verwendet. IAM
-
Sie die Befehlszeile verwenden, um eine Snapshot-Richtlinie mit aktiviertem Vor-/Nach-Skript zu erstellen oder zu aktualisieren, die die Standardeinstellung verwendet.
Wenn Sie die Konsole verwenden, um eine Snapshot-Richtlinie mit aktiviertem Pre-/Post-Skript zu erstellen oder zu aktualisieren, die die Standardrolle für die Verwaltung von Snapshots () verwendet, überspringen Sie diesen Schritt. AWSDataLifecycleManagerDefaultRole In diesem Fall hängen wir die Richtlinie automatisch an diese Rolle an AWSDataLifecycleManagerSSMFullAccess.
Sie müssen sicherstellen, dass die IAM Rolle, die Sie für die Richtlinie verwenden, Amazon Data Lifecycle Manager die Erlaubnis erteilt, die SSM Aktionen auszuführen, die für die Ausführung von Pre- und Post-Skripten auf Instances erforderlich sind, auf die die Richtlinie abzielt.
Amazon Data Lifecycle Manager bietet eine verwaltete Richtlinie (AWSDataLifecycleManagerSSMFullAccess), die die erforderlichen Berechtigungen enthält. Sie können diese Richtlinie an Ihre IAM Rolle für die Verwaltung von Snapshots anhängen, um sicherzustellen, dass sie die entsprechenden Berechtigungen beinhaltet.
Die AWSDataLifecycleManagerSSMFullAccess verwaltete Richtlinie verwendet den aws:ResourceTag
Bedingungsschlüssel, um den Zugriff auf bestimmte SSM Dokumente zu beschränken, wenn Pre- und Post-Skripte verwendet werden. Damit Amazon Data Lifecycle Manager auf die SSM Dokumente zugreifen kann, müssen Sie sicherstellen, dass Ihre SSM Dokumente mit gekennzeichnet sindDLMScriptsAccess:true
.
Alternativ können Sie manuell eine benutzerdefinierte Richtlinie erstellen oder die erforderlichen Berechtigungen direkt der IAM Rolle zuweisen, die Sie verwenden. Sie können dieselben Berechtigungen verwenden, die in der AWSDataLifecycleManagerSSMFullAccess verwalteten Richtlinie definiert sind, der aws:ResourceTag
Bedingungsschlüssel ist jedoch optional. Wenn Sie diesen Bedingungsschlüssel nicht angeben möchten, müssen Sie Ihre SSM Dokumente nicht mit einem Tag versehenDLMScriptsAccess:true
.
Verwenden Sie eine der folgenden Methoden, um die AWSDataLifecycleManagerSSMFullAccessRichtlinie zu Ihrer IAM Rolle hinzuzufügen.
- Console
-
So hängen Sie die verwaltete Richtlinie an Ihre benutzerdefinierte Rolle an
-
Öffnen Sie die IAM Konsole unter https://console.aws.amazon.com/iam/.
-
Wählen Sie im Navigationspanel Rollen aus.
-
Suchen Sie nach Ihrer benutzerdefinierten Rolle zur Verwaltung von Snapshots und wählen Sie sie aus.
-
Wählen Sie auf der Registerkarte Berechtigungen Berechtigungen hinzufügen und dann Richtlinien anfügen aus.
-
Suchen Sie nach der AWSDataLifecycleManagerSSMFullAccessverwalteten Richtlinie, wählen Sie sie aus und klicken Sie dann auf Berechtigungen hinzufügen.
- AWS CLI
-
So hängen Sie die verwaltete Richtlinie an Ihre benutzerdefinierte Rolle an
Verwenden Sie den attach-role-policyBefehl. Geben Sie für ---role-name
den Namen Ihrer benutzerdefinierten Rolle an. Legen Sie für --policy-arn
die Option arn:aws:iam::aws:policy/AWSDataLifecycleManagerSSMFullAccess
fest.
$
aws iam attach-role-policy \
--policy-arn arn:aws:iam::aws:policy/AWSDataLifecycleManagerSSMFullAccess \
--role-name your_role_name
Um anwendungskonsistente Snapshots zu automatisieren, müssen Sie eine Snapshot-Lebenszyklusrichtlinie für Instances erstellen und Vor- und Nach-Skripte für diese Richtlinie konfigurieren.
- Console
-
So erstellen Sie die Snapshot-Lebenszyklusrichtlinie
Öffnen Sie die EC2 Amazon-Konsole unter https://console.aws.amazon.com/ec2/.
-
Wählen Sie im Navigationsbereich Elastic Block Store und Lifecycle Manager aus. Wählen Sie dann Create lifecycle policy (Lebenszyklusrichtlinie erstellen) aus.
-
Wählen Sie auf dem Bildschirm „Richtlinientyp auswählen“ die Option EBSSnapshot-Richtlinie und dann Weiter aus.
-
Gehen Sie im Abschnitt Zielressourcen wie folgt vor:
-
Wählen Sie für Ziel-Ressourcentypen die Option Instance
.
-
Geben Sie für Zielressourcen-Tags die Ressourcen-Tags an, die die zu sichernden Instances identifizieren. Nur Ressourcen mit den angegebenen Tags werden gesichert.
-
Wählen Sie als IAMRolle entweder AWSDataLifecycleManagerDefaultRole(die Standardrolle für die Verwaltung von Snapshots) oder eine benutzerdefinierte Rolle, die Sie für Vor- und Nachskripte erstellt und vorbereitet haben.
-
Konfigurieren Sie die Zeitpläne und zusätzlichen Optionen nach Bedarf. Wir empfehlen Ihnen, die Snapshot-Erstellung für Zeiträume einzuplanen, die Ihrem Workload entsprechen, z. B. während Wartungsfenstern.
Für empfehlen wir SAPHANA, dass Sie die schnelle Snapshot-Wiederherstellung aktivieren.
Wenn Sie einen Zeitplan für VSS Backups aktivieren, können Sie die Optionen Bestimmte Datenvolumes ausschließen oder Tags aus Quelle kopieren nicht aktivieren.
-
Wählen Sie im Abschnitt Vor- und Nach-Skripte die Option Vor- und Nach-Skripte aktivieren aus und gehen Sie dann je nach Workload wie folgt vor:
-
Um anwendungskonsistente Snapshots Ihrer Windows-Anwendungen zu erstellen, wählen Sie Backup aus. VSS
-
Um anwendungskonsistente Snapshots Ihrer Workloads zu erstellen, wählen Sie. SAP HANA SAPHANA
-
Um mithilfe eines benutzerdefinierten Dokuments anwendungskonsistente Snapshots aller anderen Datenbanken und Workloads zu erstellen, einschließlich Ihrer selbst verwalteten My-, InterSystems IRIS Postgree-Datenbanken oder DatenbankenSQL, wählen Sie SQL Benutzerdefiniertes Dokument aus. SSM SSM
-
Wählen Sie für Option automatisieren Vor- und Nach-Skripte aus.
-
Wählen Sie unter SSMDokument das Dokument aus, das Sie vorbereitet haben. SSM
-
Konfigurieren Sie je nach der ausgewählten Option die folgenden zusätzlichen Optionen:
-
Skript-Timeout — (nur benutzerdefiniertes SSM Dokument) Der Timeout-Zeitraum, nach dem Amazon Data Lifecycle Manager den Skriptausführungsversuch fehlschlägt, wenn er nicht abgeschlossen wurde. Wenn ein Skript nicht innerhalb des Timeout-Zeitraums abgeschlossen wird, schlägt der Versuch von Amazon Data Lifecycle Manager fehl. Der Timeout-Zeitraum gilt für die Vor- und Nach-Skripte einzeln. Der Minimal- und Standardwert für den Timeout beträgt 10 Sekunden. Die maximale Timeout-Zeit beträgt 120 Sekunden.
-
Fehlgeschlagene Skripte erneut versuchen – Wählen Sie diese Option, um Skripte zu wiederholen, die nicht innerhalb ihres Timeouts abgeschlossen werden. Wenn das Vor-Skript fehlschlägt, wiederholt Amazon Data Lifecycle Manager den gesamten Snapshot-Erstellungsprozess, einschließlich der Ausführung der Vor- und Nach-Skripte. Wenn das Nach-Skript fehlschlägt, wiederholt Amazon Data Lifecycle Manager nur das Nach-Skript. In diesem Fall ist das Vor-Skript abgeschlossen und der Snapshot wurde möglicherweise erstellt.
-
Standardmäßig absturzkonsistente Snapshots – Wählen Sie diese Option, um standardmäßig absturzkonsistente Snapshots zu verwenden, falls das Vor-Skript nicht ausgeführt werden kann. Dies ist das Standardverhalten bei der Snapshot-Erstellung für Amazon Data Lifecycle Manager, wenn Vor- und Nach-Skripte nicht aktiviert sind. Wenn Sie Wiederholungen aktiviert haben, verwendet Amazon Data Lifecycle Manager standardmäßig nur dann absturzkonsistente Snapshots, wenn alle Wiederholungsversuche ausgeschöpft sind. Wenn das Vor-Skript fehlschlägt und Sie nicht standardmäßig absturzkonsistente Snapshots verwenden, erstellt Amazon Data Lifecycle Manager während dieser geplanten Ausführung keine Snapshots für die Instance.
Wenn Sie Snapshots für erstellen SAPHANA, sollten Sie diese Option möglicherweise deaktivieren. Absturzsichere Snapshots von SAP HANA Workloads können nicht auf dieselbe Weise wiederhergestellt werden.
-
Wählen Sie Standardrichtlinie erstellen.
- AWS CLI
-
So erstellen Sie die Snapshot-Lebenszyklusrichtlinie
Verwenden Sie den create-lifecycle-policyBefehl und fügen Sie die Parameter in ein. Scripts
CreateRule
Weitere Informationen zu den Parametern finden Sie in der Amazon Data Lifecycle Manager API Manager-Referenz.
$
aws dlm create-lifecycle-policy \
--description "policy_description
" \
--state ENABLED \
--execution-role-arn iam_role_arn
\
--policy-details file://policyDetails.json
Wenn policyDetails.json
einen der folgenden Aspekte beinhaltet, gehen Sie je nach Anwendungsfall wie folgt vor:
-
VSSBackup
{
"PolicyType": "EBS_SNAPSHOT_MANAGEMENT",
"ResourceTypes": [
"INSTANCE"
],
"TargetTags": [{
"Key": "tag_key
",
"Value": "tag_value
"
}],
"Schedules": [{
"Name": "schedule_name
",
"CreateRule": {
"CronExpression": "cron_for_creation_frequency
",
"Scripts": [{
"ExecutionHandler":"AWS_VSS_BACKUP",
"ExecuteOperationOnScriptFailure":true|false
,
"MaximumRetryCount":retries (0-3)
}]
},
"RetainRule": {
"Count": retention_count
}
}]
}
-
SAPHANABackups
{
"PolicyType": "EBS_SNAPSHOT_MANAGEMENT",
"ResourceTypes": [
"INSTANCE"
],
"TargetTags": [{
"Key": "tag_key
",
"Value": "tag_value
"
}],
"Schedules": [{
"Name": "schedule_name
",
"CreateRule": {
"CronExpression": "cron_for_creation_frequency
",
"Scripts": [{
"Stages": ["PRE","POST"],
"ExecutionHandlerService":"AWS_SYSTEMS_MANAGER",
"ExecutionHandler":"AWSSystemsManagerSAP-CreateDLMSnapshotForSAPHANA",
"ExecuteOperationOnScriptFailure":true|false
,
"ExecutionTimeout":timeout_in_seconds (10-120)
,
"MaximumRetryCount":retries (0-3)
}]
},
"RetainRule": {
"Count": retention_count
}
}]
}
-
Benutzerdefiniertes SSM Dokument
{
"PolicyType": "EBS_SNAPSHOT_MANAGEMENT",
"ResourceTypes": [
"INSTANCE"
],
"TargetTags": [{
"Key": "tag_key
",
"Value": "tag_value
"
}],
"Schedules": [{
"Name": "schedule_name
",
"CreateRule": {
"CronExpression": "cron_for_creation_frequency
",
"Scripts": [{
"Stages": ["PRE","POST"],
"ExecutionHandlerService":"AWS_SYSTEMS_MANAGER",
"ExecutionHandler":"ssm_document_name|arn
",
"ExecuteOperationOnScriptFailure":true|false
,
"ExecutionTimeout":timeout_in_seconds (10-120)
,
"MaximumRetryCount":retries (0-3)
}]
},
"RetainRule": {
"Count": retention_count
}
}]
}
Überlegungen zu VSS Backups mit Amazon Data Lifecycle Manager
Mit Amazon Data Lifecycle Manager können Sie Windows-Anwendungen, die auf EC2 Amazon-Instances ausgeführt werden, sichern und wiederherstellen VSS (Volume Shadow Copy Service). Wenn für die Anwendung ein VSS Writer bei Windows registriert istVSS, erstellt Amazon Data Lifecycle Manager einen Snapshot, der für diese Anwendung anwendungskonsistent ist.
Amazon Data Lifecycle Manager unterstützt derzeit EC2 nur anwendungskonsistente Snapshots von Ressourcen, die auf Amazon ausgeführt werden, insbesondere für Sicherungsszenarien, in denen Anwendungsdaten wiederhergestellt werden können, indem eine bestehende Instance durch eine neue Instance ersetzt wird, die aus dem Backup erstellt wurde. Nicht alle Instance-Typen oder Anwendungen werden für Backups unterstützt. VSS Weitere Informationen finden Sie unter Was ist AWS VSS? im EC2Amazon-Benutzerhandbuch.
Nicht unterstützte Instance-Typen
Die folgenden EC2 Amazon-Instance-Typen werden für VSS Backups nicht unterstützt. Wenn Ihre Richtlinie auf einen dieser Instance-Typen abzielt, erstellt Amazon Data Lifecycle Manager möglicherweise trotzdem VSS Backups, aber die Snapshots sind möglicherweise nicht mit den erforderlichen System-Tags gekennzeichnet. Ohne diese Tags werden die Snapshots nach der Erstellung nicht von Amazon Data Lifecycle Manager verwaltet. Sie müssen diese Snapshots möglicherweise manuell löschen.
Geteilte Verantwortlichkeit für anwendungskonsistente Snapshots
Sie müssen Folgendes sicherstellen:
-
Der SSM Agent ist installiert und wird auf Ihren Ziel-Instances ausgeführt up-to-date
-
Systems Manager verfügt über Berechtigungen zum Ausführen der erforderlichen Aktionen auf den Ziel-Instances.
-
Amazon Data Lifecycle Manager ist berechtigt, die Systems-Manager-Aktionen auszuführen, die für die Ausführung von Vor- und Nach-Skripten auf den Ziel-Instances erforderlich sind.
-
Für benutzerdefinierte Workloads, wie z. B. selbstverwaltete My-SQL, Postgre SQL - oder InterSystems IRIS Datenbanken, enthält das von Ihnen verwendete SSM Dokument die korrekten und erforderlichen Aktionen zum Einfrieren, Leeren und Auftauen von I/O für Ihre Datenbankkonfiguration.
-
Die Zeiten für die Snapshot-Erstellung richten sich nach Ihrem Workload-Zeitplan. Versuchen Sie beispielsweise, die Snapshot-Erstellung für geplante Wartungsfenster einzuplanen.
Amazon Data Lifecycle Manager stellt sicher, dass:
-
Die Snapshot-Erstellung wird innerhalb von 60 Minuten nach der geplanten Snapshot-Erstellung initiiert.
-
Vor-Skripte werden ausgeführt, bevor die Snapshot-Erstellung initiiert wird.
-
Nach-Skripte werden ausgeführt, nachdem das Vor-Skript erfolgreich war und die Snapshot-Erstellung initiiert wurde. Amazon Data Lifecycle Manager führt das Nach-Skript nur aus, wenn das Vor-Skript erfolgreich war. Wenn das Vor-Skript fehlschlägt, führt Amazon Data Lifecycle Manager das Nach-Skript nicht aus.
-
Snapshots werden bei der Erstellung mit den passenden Tags versehen.
-
CloudWatch Metriken und Ereignisse werden ausgegeben, wenn Skripts initiiert werden und wenn sie fehlschlagen oder erfolgreich sind.