Automatisieren Sie anwendungskonsistente Snapshots mit Data Lifecycle Manager - Amazon EBS

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Automatisieren Sie anwendungskonsistente Snapshots mit Data Lifecycle Manager

Sie können anwendungskonsistente Snapshots mit Amazon Data Lifecycle Manager automatisieren, indem Sie in Ihren Snapshot-Lebenszyklusrichtlinien Vor- und Nach-Skripts aktivieren, die auf Instances abzielen.

Amazon Data Lifecycle Manager ist in AWS Systems Manager (Systems Manager) integriert, um anwendungskonsistente Snapshots zu unterstützen. Amazon Data Lifecycle Manager verwendet Systems Manager (SSM) -Befehlsdokumente, die Vor- und Nachskripte enthalten, um die Aktionen zu automatisieren, die für die Erstellung anwendungskonsistenter Snapshots erforderlich sind. Bevor Amazon Data Lifecycle Manager die Snapshot-Erstellung initiiert, führt es die Befehle im Vor-Skript aus, um die I/O einzufrieren und zu leeren. Nachdem Amazon Data Lifecycle Manager die Snapshot-Erstellung initiiert hat, führt es die Befehle im Nach-Skript aus, um die I/O aufzutauen.

Amazon Data Lifecycle Manager ermöglicht die Automatisierung anwendungskonsistenter Snapshots der folgenden Elemente:

  • Windows-Anwendungen, die den Volume Shadow Copy Service verwenden () VSS

  • SAPHANAmithilfe eines AWS verwalteten SSDM Dokuments. Weitere Informationen finden Sie unter EBSAmazon-Snapshots für SAP HANA.

  • Selbstverwaltete Datenbanken wie MySQL, Postgre SQL oder mithilfe von InterSystems IRIS Dokumentvorlagen SSM

Anforderungen an die Verwendung von Vor- und Nach-Skripten

In der folgenden Tabelle werden die Anforderungen an die Verwendung von Vor- und Nach-Skripten mit Amazon Data Lifecycle Manager beschrieben.

Anwendungskonsistente Snapshots
Anforderung VSSBackup Benutzerdefiniertes SSM Dokument Andere Anwendungsfälle
SSMDer Agent ist auf den Zielinstanzen installiert und wird dort ausgeführt
VSSDie Systemanforderungen auf den Zielinstanzen wurden erfüllt
VSSaktiviertes Instanzprofil, das den Zielinstanzen zugeordnet ist
VSSKomponenten, die auf Zielinstanzen installiert sind
Bereiten Sie SSM das Dokument mit Pre- und Postscript-Befehlen vor
Bereiten Sie die Amazon Data Lifecycle Manager IAM Manager-Rolle vor und nach der Ausführung von Skripten vor
Erstellen Sie eine Snapshot-Richtlinie, die auf Instances abzielt und für Vor- und Nachskripte konfiguriert ist

Erste Schritte mit anwendungskonsistenten Snapshots

In diesem Abschnitt werden die Schritte erläutert, die Sie ausführen müssen, um anwendungskonsistente Snapshots mit Amazon Data Lifecycle Manager zu automatisieren.

Sie müssen die Ziel-Instances für anwendungskonsistente Snapshots mit Amazon Data Lifecycle Manager vorbereiten. Führen Sie je nach Anwendungsfall einen der folgenden Schritte durch.

Prepare for VSS Backups
Um Ihre Zielinstanzen für VSS Backups vorzubereiten
  1. Installieren Sie den SSM Agenten auf Ihren Ziel-Instances, falls er noch nicht installiert ist. Wenn der SSM Agent bereits auf Ihren Ziel-Instances installiert ist, überspringen Sie diesen Schritt.

    Weitere Informationen finden Sie unter Manuelles Installieren des SSM Agenten auf EC2 Amazon-Instances für Windows.

  2. Stellen Sie sicher, dass der SSM Agent läuft. Weitere Informationen finden Sie unter Überprüfen des SSM Agentenstatus und Starten des Agenten.

  3. Richten Sie Systems Manager für EC2 Amazon-Instances ein. Weitere Informationen finden Sie im AWS Systems Manager Benutzerhandbuch unter Systems Manager für EC2 Amazon-Instances einrichten.

  4. Stellen Sie sicher, dass die Systemanforderungen für VSS Backups erfüllt sind.

  5. Hängen Sie ein Instanzprofil mit VSS -enabled an die Zielinstanzen an.

  6. Installieren Sie die VSS Komponenten.

Prepare for SAP HANA backups
Um Ihre Zielinstanzen für SAP HANA Backups vorzubereiten
  1. Bereiten Sie die SAP HANA Umgebung auf Ihren Zielinstanzen vor.

    1. Richten Sie Ihre Instanz mit ein SAPHANA. Wenn Sie noch nicht über eine bestehende SAP HANA Umgebung verfügen, finden Sie unter SAPHANAUmgebungs-Setup weitere Informationen AWS.

    2. Melden Sie sich als geeigneter Administratorbenutzer bei der SystemDB an.

    3. Erstellen Sie einen Datenbank-Backup-Benutzer, der mit Amazon Data Lifecycle Manager verwendet werden soll.

      CREATE USER username PASSWORD password NO FORCE_FIRST_PASSWORD_CHANGE;

      Mit dem folgenden Befehl wird beispielsweise ein Benutzer mit dem Namen dlm_user und dem Passwort password erstellt.

      CREATE USER dlm_user PASSWORD password NO FORCE_FIRST_PASSWORD_CHANGE;
    4. Weisen Sie die BACKUP OPERATOR-Rolle dem Datenbank-Backup-Benutzer zu, den Sie im vorherigen Schritt erstellt haben.

      GRANT BACKUP OPERATOR TO username

      Mit dem folgenden Befehl wird die Rolle beispielsweise einem Benutzer mit dem Namen dlm_user zugewiesen.

      GRANT BACKUP OPERATOR TO dlm_user
    5. Melden Sie sich als Administrator beim Betriebssystem an, beispielsweise sidadm.

    6. Erstellen Sie einen hdbuserstore Eintrag, um Verbindungsinformationen zu speichern, sodass das SAP HANA SSM Dokument eine Verbindung herstellen kann, SAP HANA ohne dass Benutzer die Informationen eingeben müssen.

      hdbuserstore set DLM_HANADB_SNAPSHOT_USER localhost:3hana_instance_number13 username password

      Beispielsweise:

      hdbuserstore set DLM_HANADB_SNAPSHOT_USER localhost:30013 dlm_user password
    7. Testen Sie die Verbindung.

      hdbsql -U DLM_HANADB_SNAPSHOT_USER "select * from dummy"
  2. Installieren Sie den SSM Agenten auf Ihren Zielinstanzen, falls er nicht bereits installiert ist. Wenn der SSM Agent bereits auf Ihren Ziel-Instances installiert ist, überspringen Sie diesen Schritt.

    Weitere Informationen finden Sie unter Manuelles Installieren des SSM Agenten auf EC2 Amazon-Instances für Linux.

  3. Stellen Sie sicher, dass der SSM Agent läuft. Weitere Informationen finden Sie unter Überprüfen des SSM Agentenstatus und Starten des Agenten.

  4. Richten Sie Systems Manager für EC2 Amazon-Instances ein. Weitere Informationen finden Sie im AWS Systems Manager Benutzerhandbuch unter Systems Manager für EC2 Amazon-Instances einrichten.

Prepare for custom SSM documents
So bereiten Sie benutzerdefinierte SSM Dokumente für Ihre Ziel-Instances vor
  1. Installieren Sie den SSM Agenten auf Ihren Zielinstanzen, falls er noch nicht installiert ist. Wenn der SSM Agent bereits auf Ihren Ziel-Instances installiert ist, überspringen Sie diesen Schritt.

  2. Stellen Sie sicher, dass der SSM Agent läuft. Weitere Informationen finden Sie unter Überprüfen des SSM Agentenstatus und Starten des Agenten.

  3. Richten Sie Systems Manager für EC2 Amazon-Instances ein. Weitere Informationen finden Sie im AWS Systems Manager Benutzerhandbuch unter Systems Manager für EC2 Amazon-Instances einrichten.

Anmerkung

Dieser Schritt ist nur für benutzerdefinierte SSM Dokumente erforderlich. Es ist nicht für VSS Backup oder erforderlich SAPHANA. Für VSS Backups und SAP HANA verwendet Amazon Data Lifecycle Manager das AWS verwaltete SSM Dokument.

Wenn Sie anwendungskonsistente Snapshots für eine selbstverwaltete Datenbank wie MySQL, Postgre oder InterSystems IRIS automatisieren, müssen Sie ein SSM Befehlsdokument erstellenSQL, das ein Pre-Skript zum Einfrieren und Leeren von I/O vor der Snapshot-Erstellung und ein Post-Skript zum Auftauen von I/O nach der Snapshot-Erstellung enthält.

Wenn Ihre My-SQL, Postgre- oder InterSystems IRIS Datenbank Standardkonfigurationen verwendetSQL, können Sie anhand des folgenden Beispieldokumentinhalts ein SSM Befehlsdokument erstellen. SSM Wenn Ihre My-SQL, Postgre SQL - oder InterSystems IRIS Datenbank eine nicht standardmäßige Konfiguration verwendet, können Sie den folgenden Beispielinhalt als Ausgangspunkt für Ihr SSM Befehlsdokument verwenden und es dann an Ihre Anforderungen anpassen. Wenn Sie ein neues SSM Dokument von Grund auf neu erstellen möchten, können Sie alternativ die unten stehende leere SSM Dokumentvorlage verwenden und Ihre Pre- und Post-Befehle in den entsprechenden Dokumentabschnitten hinzufügen.

Beachten Sie Folgendes:
  • Es liegt in Ihrer Verantwortung, sicherzustellen, dass das SSM Dokument die richtigen und erforderlichen Aktionen für Ihre Datenbankkonfiguration ausführt.

  • Schnappschüsse sind nur dann garantiert anwendungskonsistent, wenn die Vor- und Nachskripte in Ihrem SSM Dokument I/O erfolgreich einfrieren, leeren und auftauen können.

  • Das SSM Dokument muss die erforderlichen Felder fürallowedValues, einschließlich, und, enthalten. pre-script post-script dry-run Amazon Data Lifecycle Manager führt Befehle auf Ihrer Instance basierend auf den Inhalten dieser Abschnitte aus. Wenn Ihr SSM Dokument diese Abschnitte nicht enthält, behandelt Amazon Data Lifecycle Manager es als fehlgeschlagene Ausführung.

MySQL sample document content
###===============================================================================### # Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # Permission is hereby granted, free of charge, to any person obtaining a copy of this # software and associated documentation files (the "Software"), to deal in the Software # without restriction, including without limitation the rights to use, copy, modify, # merge, publish, distribute, sublicense, and/or sell copies of the Software, and to # permit persons to whom the Software is furnished to do so. # THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, # INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A # PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT # HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION # OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE # SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE. ###===============================================================================### schemaVersion: '2.2' description: Amazon Data Lifecycle Manager Pre/Post script for MySQL databases parameters: executionId: type: String default: None description: (Required) Specifies the unique identifier associated with a pre and/or post execution allowedPattern: ^(None|[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12})$ command: # Data Lifecycle Manager will trigger the pre-script and post-script actions during policy execution. # 'dry-run' option is intended for validating the document execution without triggering any commands # on the instance. The following allowedValues will allow Data Lifecycle Manager to successfully # trigger pre and post script actions. type: String default: 'dry-run' description: (Required) Specifies whether pre-script and/or post-script should be executed. allowedValues: - pre-script - post-script - dry-run mainSteps: - action: aws:runShellScript description: Run MySQL Database freeze/thaw commands name: run_pre_post_scripts precondition: StringEquals: - platformType - Linux inputs: runCommand: - | #!/bin/bash ###===============================================================================### ### Error Codes ###===============================================================================### # The following Error codes will inform Data Lifecycle Manager of the type of error # and help guide handling of the error. # The Error code will also be emitted via AWS Eventbridge events in the 'cause' field. # 1 Pre-script failed during execution - 201 # 2 Post-script failed during execution - 202 # 3 Auto thaw occurred before post-script was initiated - 203 # 4 Pre-script initiated while post-script was expected - 204 # 5 Post-script initiated while pre-script was expected - 205 # 6 Application not ready for pre or post-script initiation - 206 ###=================================================================### ### Global variables ###=================================================================### START=$(date +%s) # For testing this script locally, replace the below with OPERATION=$1. OPERATION={{ command }} FS_ALREADY_FROZEN_ERROR='freeze failed: Device or resource busy' FS_ALREADY_THAWED_ERROR='unfreeze failed: Invalid argument' FS_BUSY_ERROR='mount point is busy' # Auto thaw is a fail safe mechanism to automatically unfreeze the application after the # duration specified in the global variable below. Choose the duration based on your # database application's tolerance to freeze. export AUTO_THAW_DURATION_SECS="60" # Add all pre-script actions to be performed within the function below execute_pre_script() { echo "INFO: Start execution of pre-script" # Check if filesystem is already frozen. No error code indicates that filesystem # is not currently frozen and that the pre-script can proceed with freezing the filesystem. check_fs_freeze # Execute the DB commands to flush the DB in preparation for snapshot snap_db # Freeze the filesystem. No error code indicates that filesystem was succefully frozen freeze_fs echo "INFO: Schedule Auto Thaw to execute in ${AUTO_THAW_DURATION_SECS} seconds." $(nohup bash -c execute_schedule_auto_thaw >/dev/null 2>&1 &) } # Add all post-script actions to be performed within the function below execute_post_script() { echo "INFO: Start execution of post-script" # Unfreeze the filesystem. No error code indicates that filesystem was successfully unfrozen. unfreeze_fs thaw_db } # Execute Auto Thaw to automatically unfreeze the application after the duration configured # in the AUTO_THAW_DURATION_SECS global variable. execute_schedule_auto_thaw() { sleep ${AUTO_THAW_DURATION_SECS} execute_post_script } # Disable Auto Thaw if it is still enabled execute_disable_auto_thaw() { echo "INFO: Attempting to disable auto thaw if enabled" auto_thaw_pgid=$(pgrep -f execute_schedule_auto_thaw | xargs -i ps -hp {} -o pgid) if [ -n "${auto_thaw_pgid}" ]; then echo "INFO: execute_schedule_auto_thaw process found with pgid ${auto_thaw_pgid}" sudo pkill -g ${auto_thaw_pgid} rc=$? if [ ${rc} != 0 ]; then echo "ERROR: Unable to kill execute_schedule_auto_thaw process. retval=${rc}" else echo "INFO: Auto Thaw has been disabled" fi fi } # Iterate over all the mountpoints and check if filesystem is already in freeze state. # Return error code 204 if any of the mount points are already frozen. check_fs_freeze() { for target in $(lsblk -nlo MOUNTPOINTS) do # Freeze of the root and boot filesystems is dangerous and pre-script does not freeze these filesystems. # Hence, we will skip the root and boot mountpoints while checking if filesystem is in freeze state. if [ $target == '/' ]; then continue; fi if [[ "$target" == *"/boot"* ]]; then continue; fi error_message=$(sudo mount -o remount,noatime $target 2>&1) # Remount will be a no-op without a error message if the filesystem is unfrozen. # However, if filesystem is already frozen, remount will fail with busy error message. if [ $? -ne 0 ];then # If the filesystem is already in frozen, return error code 204 if [[ "$error_message" == *"$FS_BUSY_ERROR"* ]];then echo "ERROR: Filesystem ${target} already frozen. Return Error Code: 204" exit 204 fi # If the check filesystem freeze failed due to any reason other than the filesystem already frozen, return 201 echo "ERROR: Failed to check_fs_freeze on mountpoint $target due to error - $errormessage" exit 201 fi done } # Iterate over all the mountpoints and freeze the filesystem. freeze_fs() { for target in $(lsblk -nlo MOUNTPOINTS) do # Freeze of the root and boot filesystems is dangerous. Hence, skip filesystem freeze # operations for root and boot mountpoints. if [ $target == '/' ]; then continue; fi if [[ "$target" == *"/boot"* ]]; then continue; fi echo "INFO: Freezing $target" error_message=$(sudo fsfreeze -f $target 2>&1) if [ $? -ne 0 ];then # If the filesystem is already in frozen, return error code 204 if [[ "$error_message" == *"$FS_ALREADY_FROZEN_ERROR"* ]]; then echo "ERROR: Filesystem ${target} already frozen. Return Error Code: 204" sudo mysql -e 'UNLOCK TABLES;' exit 204 fi # If the filesystem freeze failed due to any reason other than the filesystem already frozen, return 201 echo "ERROR: Failed to freeze mountpoint $targetdue due to error - $errormessage" thaw_db exit 201 fi echo "INFO: Freezing complete on $target" done } # Iterate over all the mountpoints and unfreeze the filesystem. unfreeze_fs() { for target in $(lsblk -nlo MOUNTPOINTS) do # Freeze of the root and boot filesystems is dangerous and pre-script does not freeze these filesystems. # Hence, will skip the root and boot mountpoints during unfreeze as well. if [ $target == '/' ]; then continue; fi if [[ "$target" == *"/boot"* ]]; then continue; fi echo "INFO: Thawing $target" error_message=$(sudo fsfreeze -u $target 2>&1) # Check if filesystem is already unfrozen (thawed). Return error code 204 if filesystem is already unfrozen. if [ $? -ne 0 ]; then if [[ "$error_message" == *"$FS_ALREADY_THAWED_ERROR"* ]]; then echo "ERROR: Filesystem ${target} is already in thaw state. Return Error Code: 205" exit 205 fi # If the filesystem unfreeze failed due to any reason other than the filesystem already unfrozen, return 202 echo "ERROR: Failed to unfreeze mountpoint $targetdue due to error - $errormessage" exit 202 fi echo "INFO: Thaw complete on $target" done } snap_db() { # Run the flush command only when MySQL DB service is up and running sudo systemctl is-active --quiet mysqld.service if [ $? -eq 0 ]; then echo "INFO: Execute MySQL Flush and Lock command." sudo mysql -e 'FLUSH TABLES WITH READ LOCK;' # If the MySQL Flush and Lock command did not succeed, return error code 201 to indicate pre-script failure if [ $? -ne 0 ]; then echo "ERROR: MySQL FLUSH TABLES WITH READ LOCK command failed." exit 201 fi sync else echo "INFO: MySQL service is inactive. Skipping execution of MySQL Flush and Lock command." fi } thaw_db() { # Run the unlock command only when MySQL DB service is up and running sudo systemctl is-active --quiet mysqld.service if [ $? -eq 0 ]; then echo "INFO: Execute MySQL Unlock" sudo mysql -e 'UNLOCK TABLES;' else echo "INFO: MySQL service is inactive. Skipping execution of MySQL Unlock command." fi } export -f execute_schedule_auto_thaw export -f execute_post_script export -f unfreeze_fs export -f thaw_db # Debug logging for parameters passed to the SSM document echo "INFO: ${OPERATION} starting at $(date) with executionId: ${EXECUTION_ID}" # Based on the command parameter value execute the function that supports # pre-script/post-script operation case ${OPERATION} in pre-script) execute_pre_script ;; post-script) execute_post_script execute_disable_auto_thaw ;; dry-run) echo "INFO: dry-run option invoked - taking no action" ;; *) echo "ERROR: Invalid command parameter passed. Please use either pre-script, post-script, dry-run." exit 1 # return failure ;; esac END=$(date +%s) # Debug Log for profiling the script time echo "INFO: ${OPERATION} completed at $(date). Total runtime: $((${END} - ${START})) seconds."
PostgreSQL sample document content
###===============================================================================### # Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # Permission is hereby granted, free of charge, to any person obtaining a copy of this # software and associated documentation files (the "Software"), to deal in the Software # without restriction, including without limitation the rights to use, copy, modify, # merge, publish, distribute, sublicense, and/or sell copies of the Software, and to # permit persons to whom the Software is furnished to do so. # THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, # INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A # PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT # HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION # OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE # SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE. ###===============================================================================### schemaVersion: '2.2' description: Amazon Data Lifecycle Manager Pre/Post script for PostgreSQL databases parameters: executionId: type: String default: None description: (Required) Specifies the unique identifier associated with a pre and/or post execution allowedPattern: ^(None|[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12})$ command: # Data Lifecycle Manager will trigger the pre-script and post-script actions during policy execution. # 'dry-run' option is intended for validating the document execution without triggering any commands # on the instance. The following allowedValues will allow Data Lifecycle Manager to successfully # trigger pre and post script actions. type: String default: 'dry-run' description: (Required) Specifies whether pre-script and/or post-script should be executed. allowedValues: - pre-script - post-script - dry-run mainSteps: - action: aws:runShellScript description: Run PostgreSQL Database freeze/thaw commands name: run_pre_post_scripts precondition: StringEquals: - platformType - Linux inputs: runCommand: - | #!/bin/bash ###===============================================================================### ### Error Codes ###===============================================================================### # The following Error codes will inform Data Lifecycle Manager of the type of error # and help guide handling of the error. # The Error code will also be emitted via AWS Eventbridge events in the 'cause' field. # 1 Pre-script failed during execution - 201 # 2 Post-script failed during execution - 202 # 3 Auto thaw occurred before post-script was initiated - 203 # 4 Pre-script initiated while post-script was expected - 204 # 5 Post-script initiated while pre-script was expected - 205 # 6 Application not ready for pre or post-script initiation - 206 ###===============================================================================### ### Global variables ###===============================================================================### START=$(date +%s) OPERATION={{ command }} FS_ALREADY_FROZEN_ERROR='freeze failed: Device or resource busy' FS_ALREADY_THAWED_ERROR='unfreeze failed: Invalid argument' FS_BUSY_ERROR='mount point is busy' # Auto thaw is a fail safe mechanism to automatically unfreeze the application after the # duration specified in the global variable below. Choose the duration based on your # database application's tolerance to freeze. export AUTO_THAW_DURATION_SECS="60" # Add all pre-script actions to be performed within the function below execute_pre_script() { echo "INFO: Start execution of pre-script" # Check if filesystem is already frozen. No error code indicates that filesystem # is not currently frozen and that the pre-script can proceed with freezing the filesystem. check_fs_freeze # Execute the DB commands to flush the DB in preparation for snapshot snap_db # Freeze the filesystem. No error code indicates that filesystem was succefully frozen freeze_fs echo "INFO: Schedule Auto Thaw to execute in ${AUTO_THAW_DURATION_SECS} seconds." $(nohup bash -c execute_schedule_auto_thaw >/dev/null 2>&1 &) } # Add all post-script actions to be performed within the function below execute_post_script() { echo "INFO: Start execution of post-script" # Unfreeze the filesystem. No error code indicates that filesystem was successfully unfrozen unfreeze_fs } # Execute Auto Thaw to automatically unfreeze the application after the duration configured # in the AUTO_THAW_DURATION_SECS global variable. execute_schedule_auto_thaw() { sleep ${AUTO_THAW_DURATION_SECS} execute_post_script } # Disable Auto Thaw if it is still enabled execute_disable_auto_thaw() { echo "INFO: Attempting to disable auto thaw if enabled" auto_thaw_pgid=$(pgrep -f execute_schedule_auto_thaw | xargs -i ps -hp {} -o pgid) if [ -n "${auto_thaw_pgid}" ]; then echo "INFO: execute_schedule_auto_thaw process found with pgid ${auto_thaw_pgid}" sudo pkill -g ${auto_thaw_pgid} rc=$? if [ ${rc} != 0 ]; then echo "ERROR: Unable to kill execute_schedule_auto_thaw process. retval=${rc}" else echo "INFO: Auto Thaw has been disabled" fi fi } # Iterate over all the mountpoints and check if filesystem is already in freeze state. # Return error code 204 if any of the mount points are already frozen. check_fs_freeze() { for target in $(lsblk -nlo MOUNTPOINTS) do # Freeze of the root and boot filesystems is dangerous and pre-script does not freeze these filesystems. # Hence, we will skip the root and boot mountpoints while checking if filesystem is in freeze state. if [ $target == '/' ]; then continue; fi if [[ "$target" == *"/boot"* ]]; then continue; fi error_message=$(sudo mount -o remount,noatime $target 2>&1) # Remount will be a no-op without a error message if the filesystem is unfrozen. # However, if filesystem is already frozen, remount will fail with busy error message. if [ $? -ne 0 ];then # If the filesystem is already in frozen, return error code 204 if [[ "$error_message" == *"$FS_BUSY_ERROR"* ]];then echo "ERROR: Filesystem ${target} already frozen. Return Error Code: 204" exit 204 fi # If the check filesystem freeze failed due to any reason other than the filesystem already frozen, return 201 echo "ERROR: Failed to check_fs_freeze on mountpoint $target due to error - $errormessage" exit 201 fi done } # Iterate over all the mountpoints and freeze the filesystem. freeze_fs() { for target in $(lsblk -nlo MOUNTPOINTS) do # Freeze of the root and boot filesystems is dangerous. Hence, skip filesystem freeze # operations for root and boot mountpoints. if [ $target == '/' ]; then continue; fi if [[ "$target" == *"/boot"* ]]; then continue; fi echo "INFO: Freezing $target" error_message=$(sudo fsfreeze -f $target 2>&1) if [ $? -ne 0 ];then # If the filesystem is already in frozen, return error code 204 if [[ "$error_message" == *"$FS_ALREADY_FROZEN_ERROR"* ]]; then echo "ERROR: Filesystem ${target} already frozen. Return Error Code: 204" exit 204 fi # If the filesystem freeze failed due to any reason other than the filesystem already frozen, return 201 echo "ERROR: Failed to freeze mountpoint $targetdue due to error - $errormessage" exit 201 fi echo "INFO: Freezing complete on $target" done } # Iterate over all the mountpoints and unfreeze the filesystem. unfreeze_fs() { for target in $(lsblk -nlo MOUNTPOINTS) do # Freeze of the root and boot filesystems is dangerous and pre-script does not freeze these filesystems. # Hence, will skip the root and boot mountpoints during unfreeze as well. if [ $target == '/' ]; then continue; fi if [[ "$target" == *"/boot"* ]]; then continue; fi echo "INFO: Thawing $target" error_message=$(sudo fsfreeze -u $target 2>&1) # Check if filesystem is already unfrozen (thawed). Return error code 204 if filesystem is already unfrozen. if [ $? -ne 0 ]; then if [[ "$error_message" == *"$FS_ALREADY_THAWED_ERROR"* ]]; then echo "ERROR: Filesystem ${target} is already in thaw state. Return Error Code: 205" exit 205 fi # If the filesystem unfreeze failed due to any reason other than the filesystem already unfrozen, return 202 echo "ERROR: Failed to unfreeze mountpoint $targetdue due to error - $errormessage" exit 202 fi echo "INFO: Thaw complete on $target" done } snap_db() { # Run the flush command only when PostgreSQL DB service is up and running sudo systemctl is-active --quiet postgresql if [ $? -eq 0 ]; then echo "INFO: Execute Postgres CHECKPOINT" # PostgreSQL command to flush the transactions in memory to disk sudo -u postgres psql -c 'CHECKPOINT;' # If the PostgreSQL Command did not succeed, return error code 201 to indicate pre-script failure if [ $? -ne 0 ]; then echo "ERROR: Postgres CHECKPOINT command failed." exit 201 fi sync else echo "INFO: PostgreSQL service is inactive. Skipping execution of CHECKPOINT command." fi } export -f execute_schedule_auto_thaw export -f execute_post_script export -f unfreeze_fs # Debug logging for parameters passed to the SSM document echo "INFO: ${OPERATION} starting at $(date) with executionId: ${EXECUTION_ID}" # Based on the command parameter value execute the function that supports # pre-script/post-script operation case ${OPERATION} in pre-script) execute_pre_script ;; post-script) execute_post_script execute_disable_auto_thaw ;; dry-run) echo "INFO: dry-run option invoked - taking no action" ;; *) echo "ERROR: Invalid command parameter passed. Please use either pre-script, post-script, dry-run." exit 1 # return failure ;; esac END=$(date +%s) # Debug Log for profiling the script time echo "INFO: ${OPERATION} completed at $(date). Total runtime: $((${END} - ${START})) seconds."
InterSystems IRIS sample document content
###===============================================================================### # MIT License # # Copyright (c) 2024 InterSystems # # Permission is hereby granted, free of charge, to any person obtaining a copy # of this software and associated documentation files (the "Software"), to deal # in the Software without restriction, including without limitation the rights # to use, copy, modify, merge, publish, distribute, sublicense, and/or sell # copies of the Software, and to permit persons to whom the Software is # furnished to do so, subject to the following conditions: # # The above copyright notice and this permission notice shall be included in all # copies or substantial portions of the Software. # # THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR # IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, # FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE # AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER # LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, # OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE # SOFTWARE. ###===============================================================================### schemaVersion: '2.2' description: SSM Document Template for Amazon Data Lifecycle Manager Pre/Post script feature for InterSystems IRIS. parameters: executionId: type: String default: None description: Specifies the unique identifier associated with a pre and/or post execution allowedPattern: ^(None|[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12})$ command: type: String # Data Lifecycle Manager will trigger the pre-script and post-script actions. You can also use this SSM document with 'dry-run' for manual testing purposes. default: 'dry-run' description: (Required) Specifies whether pre-script and/or post-script should be executed. #The following allowedValues will allow Data Lifecycle Manager to successfully trigger pre and post script actions. allowedValues: - pre-script - post-script - dry-run mainSteps: - action: aws:runShellScript description: Run InterSystems IRIS Database freeze/thaw commands name: run_pre_post_scripts precondition: StringEquals: - platformType - Linux inputs: runCommand: - | #!/bin/bash ###===============================================================================### ### Global variables ###===============================================================================### DOCKER_NAME=iris LOGDIR=./ EXIT_CODE=0 OPERATION={{ command }} START=$(date +%s) # Check if Docker is installed # By default if Docker is present, script assumes that InterSystems IRIS is running in Docker # Leave only the else block DOCKER_EXEC line, if you run InterSystems IRIS non-containerised (and Docker is present). # Script assumes irissys user has OS auth enabled, change the OS user or supply login/password depending on your configuration. if command -v docker &> /dev/null then DOCKER_EXEC="docker exec $DOCKER_NAME" else DOCKER_EXEC="sudo -i -u irissys" fi # Add all pre-script actions to be performed within the function below execute_pre_script() { echo "INFO: Start execution of pre-script" # find all iris running instances iris_instances=$($DOCKER_EXEC iris qall 2>/dev/null | tail -n +3 | grep '^up' | cut -c5- | awk '{print $1}') echo "`date`: Running iris instances $iris_instances" # Only for running instances for INST in $iris_instances; do echo "`date`: Attempting to freeze $INST" # Detailed instances specific log LOGFILE=$LOGDIR/$INST-pre_post.log #check Freeze status before starting $DOCKER_EXEC irissession $INST -U '%SYS' "##Class(Backup.General).IsWDSuspendedExt()" freeze_status=$? if [ $freeze_status -eq 5 ]; then echo "`date`: ERROR: $INST IS already FROZEN" EXIT_CODE=204 else echo "`date`: $INST is not frozen" # Freeze # Docs: https://docs.intersystems.com/irislatest/csp/documatic/%25CSP.Documatic.cls?LIBRARY=%25SYS&CLASSNAME=Backup.General#ExternalFreeze $DOCKER_EXEC irissession $INST -U '%SYS' "##Class(Backup.General).ExternalFreeze(\"$LOGFILE\",,,,,,600,,,300)" status=$? case $status in 5) echo "`date`: $INST IS FROZEN" ;; 3) echo "`date`: $INST FREEZE FAILED" EXIT_CODE=201 ;; *) echo "`date`: ERROR: Unknown status code: $status" EXIT_CODE=201 ;; esac echo "`date`: Completed freeze of $INST" fi done echo "`date`: Pre freeze script finished" } # Add all post-script actions to be performed within the function below execute_post_script() { echo "INFO: Start execution of post-script" # find all iris running instances iris_instances=$($DOCKER_EXEC iris qall 2>/dev/null | tail -n +3 | grep '^up' | cut -c5- | awk '{print $1}') echo "`date`: Running iris instances $iris_instances" # Only for running instances for INST in $iris_instances; do echo "`date`: Attempting to thaw $INST" # Detailed instances specific log LOGFILE=$LOGDIR/$INST-pre_post.log #check Freeze status befor starting $DOCKER_EXEC irissession $INST -U '%SYS' "##Class(Backup.General).IsWDSuspendedExt()" freeze_status=$? if [ $freeze_status -eq 5 ]; then echo "`date`: $INST is in frozen state" # Thaw # Docs: https://docs.intersystems.com/irislatest/csp/documatic/%25CSP.Documatic.cls?LIBRARY=%25SYS&CLASSNAME=Backup.General#ExternalFreeze $DOCKER_EXEC irissession $INST -U%SYS "##Class(Backup.General).ExternalThaw(\"$LOGFILE\")" status=$? case $status in 5) echo "`date`: $INST IS THAWED" $DOCKER_EXEC irissession $INST -U%SYS "##Class(Backup.General).ExternalSetHistory(\"$LOGFILE\")" ;; 3) echo "`date`: $INST THAW FAILED" EXIT_CODE=202 ;; *) echo "`date`: ERROR: Unknown status code: $status" EXIT_CODE=202 ;; esac echo "`date`: Completed thaw of $INST" else echo "`date`: ERROR: $INST IS already THAWED" EXIT_CODE=205 fi done echo "`date`: Post thaw script finished" } # Debug logging for parameters passed to the SSM document echo "INFO: ${OPERATION} starting at $(date) with executionId: ${EXECUTION_ID}" # Based on the command parameter value execute the function that supports # pre-script/post-script operation case ${OPERATION} in pre-script) execute_pre_script ;; post-script) execute_post_script ;; dry-run) echo "INFO: dry-run option invoked - taking no action" ;; *) echo "ERROR: Invalid command parameter passed. Please use either pre-script, post-script, dry-run." # return failure EXIT_CODE=1 ;; esac END=$(date +%s) # Debug Log for profiling the script time echo "INFO: ${OPERATION} completed at $(date). Total runtime: $((${END} - ${START})) seconds." exit $EXIT_CODE

Weitere Informationen finden Sie im GitHub Repository.

Empty document template
###===============================================================================### # Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved. # Permission is hereby granted, free of charge, to any person obtaining a copy of this # software and associated documentation files (the "Software"), to deal in the Software # without restriction, including without limitation the rights to use, copy, modify, # merge, publish, distribute, sublicense, and/or sell copies of the Software, and to # permit persons to whom the Software is furnished to do so. # THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, # INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A # PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT # HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION # OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE # SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE. ###===============================================================================### schemaVersion: '2.2' description: SSM Document Template for Amazon Data Lifecycle Manager Pre/Post script feature parameters: executionId: type: String default: None description: (Required) Specifies the unique identifier associated with a pre and/or post execution allowedPattern: ^(None|[a-fA-F0-9]{8}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{4}-[a-fA-F0-9]{12})$ command: # Data Lifecycle Manager will trigger the pre-script and post-script actions during policy execution. # 'dry-run' option is intended for validating the document execution without triggering any commands # on the instance. The following allowedValues will allow Data Lifecycle Manager to successfully # trigger pre and post script actions. type: String default: 'dry-run' description: (Required) Specifies whether pre-script and/or post-script should be executed. allowedValues: - pre-script - post-script - dry-run mainSteps: - action: aws:runShellScript description: Run Database freeze/thaw commands name: run_pre_post_scripts precondition: StringEquals: - platformType - Linux inputs: runCommand: - | #!/bin/bash ###===============================================================================### ### Error Codes ###===============================================================================### # The following Error codes will inform Data Lifecycle Manager of the type of error # and help guide handling of the error. # The Error code will also be emitted via AWS Eventbridge events in the 'cause' field. # 1 Pre-script failed during execution - 201 # 2 Post-script failed during execution - 202 # 3 Auto thaw occurred before post-script was initiated - 203 # 4 Pre-script initiated while post-script was expected - 204 # 5 Post-script initiated while pre-script was expected - 205 # 6 Application not ready for pre or post-script initiation - 206 ###===============================================================================### ### Global variables ###===============================================================================### START=$(date +%s) # For testing this script locally, replace the below with OPERATION=$1. OPERATION={{ command }} # Add all pre-script actions to be performed within the function below execute_pre_script() { echo "INFO: Start execution of pre-script" } # Add all post-script actions to be performed within the function below execute_post_script() { echo "INFO: Start execution of post-script" } # Debug logging for parameters passed to the SSM document echo "INFO: ${OPERATION} starting at $(date) with executionId: ${EXECUTION_ID}" # Based on the command parameter value execute the function that supports # pre-script/post-script operation case ${OPERATION} in pre-script) execute_pre_script ;; post-script) execute_post_script ;; dry-run) echo "INFO: dry-run option invoked - taking no action" ;; *) echo "ERROR: Invalid command parameter passed. Please use either pre-script, post-script, dry-run." exit 1 # return failure ;; esac END=$(date +%s) # Debug Log for profiling the script time echo "INFO: ${OPERATION} completed at $(date). Total runtime: $((${END} - ${START})) seconds."

Sobald Sie den Inhalt Ihres SSM Dokuments haben, verwenden Sie eines der folgenden Verfahren, um das benutzerdefinierte SSM Dokument zu erstellen.

Console
Um das SSM Befehlsdokument zu erstellen
  1. Öffnen Sie die AWS Systems Manager Konsole unter https://console.aws.amazon.com//systems-manager/.

  2. Wählen Sie im Navigationsbereich Dokumente und dann Dokument erstellen, Befehl oder Sitzung aus.

  3. Geben Sie unter Name einen aussagekräftigen Namen für das Dokument ein.

  4. Wählen Sie als Zieltyp/AWS::EC2: :Instance aus.

  5. Wählen Sie als Dokumenttyp Befehl.

  6. Wählen Sie im Feld Inhalt den Dokumentinhalt aus YAMLund fügen Sie ihn ein.

  7. Fügen Sie im Abschnitt Dokument-Tags ein Tag mit einem Tag-Schlüssel von DLMScriptsAccess und einem Tag-Wert von true hinzu.

    Wichtig

    Das DLMScriptsAccess:true Tag ist für die AWSDataLifecycleManagerSSMFullAccess AWS verwaltete Richtlinie erforderlich, die in Schritt 3: Amazon Data Lifecycle Manager IAM Manager-Rolle vorbereiten verwendet wird. Die Richtlinie verwendet den aws:ResourceTag Bedingungsschlüssel, um den Zugriff auf SSM Dokumente mit diesem Tag einzuschränken.

  8. Wählen Sie Create document (Dokument erstellen) aus.

AWS CLI
Um das SSM Befehlsdokument zu erstellen

Verwenden Sie den Befehl create-document. Geben Sie für --name einen beschreibenden Namen für das Dokument ein. Legen Sie für --document-type die Option Command fest. Geben Sie für --content den Pfad zur .yaml-Datei mit dem SSM Dokumentinhalt an. Legen Sie für --tags die Option "Key=DLMScriptsAccess,Value=true" fest.

$ aws ssm create-document \ --content file://path/to/file/documentContent.yaml \ --name "document_name" \ --document-type "Command" \ --document-format YAML \ --tags "Key=DLMScriptsAccess,Value=true"
Anmerkung

Dieser Schritt ist erforderlich, wenn:

  • Sie erstellen oder aktualisieren eine Snapshot-Richtlinie mit aktiviertem Pre-/Post-Skript, die eine benutzerdefinierte Rolle verwendet. IAM

  • Sie die Befehlszeile verwenden, um eine Snapshot-Richtlinie mit aktiviertem Vor-/Nach-Skript zu erstellen oder zu aktualisieren, die die Standardeinstellung verwendet.

Wenn Sie die Konsole verwenden, um eine Snapshot-Richtlinie mit aktiviertem Pre-/Post-Skript zu erstellen oder zu aktualisieren, die die Standardrolle für die Verwaltung von Snapshots () verwendet, überspringen Sie diesen Schritt. AWSDataLifecycleManagerDefaultRole In diesem Fall hängen wir die Richtlinie automatisch an diese Rolle an AWSDataLifecycleManagerSSMFullAccess.

Sie müssen sicherstellen, dass die IAM Rolle, die Sie für die Richtlinie verwenden, Amazon Data Lifecycle Manager die Erlaubnis erteilt, die SSM Aktionen auszuführen, die für die Ausführung von Pre- und Post-Skripten auf Instances erforderlich sind, auf die die Richtlinie abzielt.

Amazon Data Lifecycle Manager bietet eine verwaltete Richtlinie (AWSDataLifecycleManagerSSMFullAccess), die die erforderlichen Berechtigungen enthält. Sie können diese Richtlinie an Ihre IAM Rolle für die Verwaltung von Snapshots anhängen, um sicherzustellen, dass sie die entsprechenden Berechtigungen beinhaltet.

Wichtig

Die AWSDataLifecycleManagerSSMFullAccess verwaltete Richtlinie verwendet den aws:ResourceTag Bedingungsschlüssel, um den Zugriff auf bestimmte SSM Dokumente zu beschränken, wenn Pre- und Post-Skripte verwendet werden. Damit Amazon Data Lifecycle Manager auf die SSM Dokumente zugreifen kann, müssen Sie sicherstellen, dass Ihre SSM Dokumente mit gekennzeichnet sindDLMScriptsAccess:true.

Alternativ können Sie manuell eine benutzerdefinierte Richtlinie erstellen oder die erforderlichen Berechtigungen direkt der IAM Rolle zuweisen, die Sie verwenden. Sie können dieselben Berechtigungen verwenden, die in der AWSDataLifecycleManagerSSMFullAccess verwalteten Richtlinie definiert sind, der aws:ResourceTag Bedingungsschlüssel ist jedoch optional. Wenn Sie diesen Bedingungsschlüssel nicht angeben möchten, müssen Sie Ihre SSM Dokumente nicht mit einem Tag versehenDLMScriptsAccess:true.

Verwenden Sie eine der folgenden Methoden, um die AWSDataLifecycleManagerSSMFullAccessRichtlinie zu Ihrer IAM Rolle hinzuzufügen.

Console
So hängen Sie die verwaltete Richtlinie an Ihre benutzerdefinierte Rolle an
  1. Öffnen Sie die IAM Konsole unter https://console.aws.amazon.com/iam/.

  2. Wählen Sie im Navigationspanel Rollen aus.

  3. Suchen Sie nach Ihrer benutzerdefinierten Rolle zur Verwaltung von Snapshots und wählen Sie sie aus.

  4. Wählen Sie auf der Registerkarte Berechtigungen Berechtigungen hinzufügen und dann Richtlinien anfügen aus.

  5. Suchen Sie nach der AWSDataLifecycleManagerSSMFullAccessverwalteten Richtlinie, wählen Sie sie aus und klicken Sie dann auf Berechtigungen hinzufügen.

AWS CLI
So hängen Sie die verwaltete Richtlinie an Ihre benutzerdefinierte Rolle an

Verwenden Sie den attach-role-policyBefehl. Geben Sie für ---role-name den Namen Ihrer benutzerdefinierten Rolle an. Legen Sie für --policy-arn die Option arn:aws:iam::aws:policy/AWSDataLifecycleManagerSSMFullAccess fest.

$ aws iam attach-role-policy \ --policy-arn arn:aws:iam::aws:policy/AWSDataLifecycleManagerSSMFullAccess \ --role-name your_role_name

Um anwendungskonsistente Snapshots zu automatisieren, müssen Sie eine Snapshot-Lebenszyklusrichtlinie für Instances erstellen und Vor- und Nach-Skripte für diese Richtlinie konfigurieren.

Console
So erstellen Sie die Snapshot-Lebenszyklusrichtlinie
  1. Öffnen Sie die EC2 Amazon-Konsole unter https://console.aws.amazon.com/ec2/.

  2. Wählen Sie im Navigationsbereich Elastic Block Store und Lifecycle Manager aus. Wählen Sie dann Create lifecycle policy (Lebenszyklusrichtlinie erstellen) aus.

  3. Wählen Sie auf dem Bildschirm „Richtlinientyp auswählen“ die Option EBSSnapshot-Richtlinie und dann Weiter aus.

  4. Gehen Sie im Abschnitt Zielressourcen wie folgt vor:

    1. Wählen Sie für Ziel-Ressourcentypen die Option Instance.

    2. Geben Sie für Zielressourcen-Tags die Ressourcen-Tags an, die die zu sichernden Instances identifizieren. Nur Ressourcen mit den angegebenen Tags werden gesichert.

  5. Wählen Sie als IAMRolle entweder AWSDataLifecycleManagerDefaultRole(die Standardrolle für die Verwaltung von Snapshots) oder eine benutzerdefinierte Rolle, die Sie für Vor- und Nachskripte erstellt und vorbereitet haben.

  6. Konfigurieren Sie die Zeitpläne und zusätzlichen Optionen nach Bedarf. Wir empfehlen Ihnen, die Snapshot-Erstellung für Zeiträume einzuplanen, die Ihrem Workload entsprechen, z. B. während Wartungsfenstern.

    Für empfehlen wir SAPHANA, dass Sie die schnelle Snapshot-Wiederherstellung aktivieren.

    Anmerkung

    Wenn Sie einen Zeitplan für VSS Backups aktivieren, können Sie die Optionen Bestimmte Datenvolumes ausschließen oder Tags aus Quelle kopieren nicht aktivieren.

  7. Wählen Sie im Abschnitt Vor- und Nach-Skripte die Option Vor- und Nach-Skripte aktivieren aus und gehen Sie dann je nach Workload wie folgt vor:

    • Um anwendungskonsistente Snapshots Ihrer Windows-Anwendungen zu erstellen, wählen Sie Backup aus. VSS

    • Um anwendungskonsistente Snapshots Ihrer Workloads zu erstellen, wählen Sie. SAP HANA SAPHANA

    • Um mithilfe eines benutzerdefinierten Dokuments anwendungskonsistente Snapshots aller anderen Datenbanken und Workloads zu erstellen, einschließlich Ihrer selbst verwalteten My-, InterSystems IRIS Postgree-Datenbanken oder DatenbankenSQL, wählen Sie SQL Benutzerdefiniertes Dokument aus. SSM SSM

      1. Wählen Sie für Option automatisieren Vor- und Nach-Skripte aus.

      2. Wählen Sie unter SSMDokument das Dokument aus, das Sie vorbereitet haben. SSM

  8. Konfigurieren Sie je nach der ausgewählten Option die folgenden zusätzlichen Optionen:

    • Skript-Timeout — (nur benutzerdefiniertes SSM Dokument) Der Timeout-Zeitraum, nach dem Amazon Data Lifecycle Manager den Skriptausführungsversuch fehlschlägt, wenn er nicht abgeschlossen wurde. Wenn ein Skript nicht innerhalb des Timeout-Zeitraums abgeschlossen wird, schlägt der Versuch von Amazon Data Lifecycle Manager fehl. Der Timeout-Zeitraum gilt für die Vor- und Nach-Skripte einzeln. Der Minimal- und Standardwert für den Timeout beträgt 10 Sekunden. Die maximale Timeout-Zeit beträgt 120 Sekunden.

    • Fehlgeschlagene Skripte erneut versuchen – Wählen Sie diese Option, um Skripte zu wiederholen, die nicht innerhalb ihres Timeouts abgeschlossen werden. Wenn das Vor-Skript fehlschlägt, wiederholt Amazon Data Lifecycle Manager den gesamten Snapshot-Erstellungsprozess, einschließlich der Ausführung der Vor- und Nach-Skripte. Wenn das Nach-Skript fehlschlägt, wiederholt Amazon Data Lifecycle Manager nur das Nach-Skript. In diesem Fall ist das Vor-Skript abgeschlossen und der Snapshot wurde möglicherweise erstellt.

    • Standardmäßig absturzkonsistente Snapshots – Wählen Sie diese Option, um standardmäßig absturzkonsistente Snapshots zu verwenden, falls das Vor-Skript nicht ausgeführt werden kann. Dies ist das Standardverhalten bei der Snapshot-Erstellung für Amazon Data Lifecycle Manager, wenn Vor- und Nach-Skripte nicht aktiviert sind. Wenn Sie Wiederholungen aktiviert haben, verwendet Amazon Data Lifecycle Manager standardmäßig nur dann absturzkonsistente Snapshots, wenn alle Wiederholungsversuche ausgeschöpft sind. Wenn das Vor-Skript fehlschlägt und Sie nicht standardmäßig absturzkonsistente Snapshots verwenden, erstellt Amazon Data Lifecycle Manager während dieser geplanten Ausführung keine Snapshots für die Instance.

      Anmerkung

      Wenn Sie Snapshots für erstellen SAPHANA, sollten Sie diese Option möglicherweise deaktivieren. Absturzsichere Snapshots von SAP HANA Workloads können nicht auf dieselbe Weise wiederhergestellt werden.

  9. Wählen Sie Standardrichtlinie erstellen.

    Anmerkung

    Falls Sie den Fehler Role with name AWSDataLifecycleManagerDefaultRole already exists erhalten, finden Sie weitere Informationen unter Probleme mit Amazon Data Lifecycle Manager beheben.

AWS CLI
So erstellen Sie die Snapshot-Lebenszyklusrichtlinie

Verwenden Sie den create-lifecycle-policyBefehl und fügen Sie die Parameter in ein. Scripts CreateRule Weitere Informationen zu den Parametern finden Sie in der Amazon Data Lifecycle Manager API Manager-Referenz.

$ aws dlm create-lifecycle-policy \ --description "policy_description" \ --state ENABLED \ --execution-role-arn iam_role_arn \ --policy-details file://policyDetails.json

Wenn policyDetails.json einen der folgenden Aspekte beinhaltet, gehen Sie je nach Anwendungsfall wie folgt vor:

  • VSSBackup

    { "PolicyType": "EBS_SNAPSHOT_MANAGEMENT", "ResourceTypes": [ "INSTANCE" ], "TargetTags": [{ "Key": "tag_key", "Value": "tag_value" }], "Schedules": [{ "Name": "schedule_name", "CreateRule": { "CronExpression": "cron_for_creation_frequency", "Scripts": [{ "ExecutionHandler":"AWS_VSS_BACKUP", "ExecuteOperationOnScriptFailure":true|false, "MaximumRetryCount":retries (0-3) }] }, "RetainRule": { "Count": retention_count } }] }
  • SAPHANABackups

    { "PolicyType": "EBS_SNAPSHOT_MANAGEMENT", "ResourceTypes": [ "INSTANCE" ], "TargetTags": [{ "Key": "tag_key", "Value": "tag_value" }], "Schedules": [{ "Name": "schedule_name", "CreateRule": { "CronExpression": "cron_for_creation_frequency", "Scripts": [{ "Stages": ["PRE","POST"], "ExecutionHandlerService":"AWS_SYSTEMS_MANAGER", "ExecutionHandler":"AWSSystemsManagerSAP-CreateDLMSnapshotForSAPHANA", "ExecuteOperationOnScriptFailure":true|false, "ExecutionTimeout":timeout_in_seconds (10-120), "MaximumRetryCount":retries (0-3) }] }, "RetainRule": { "Count": retention_count } }] }
  • Benutzerdefiniertes SSM Dokument

    { "PolicyType": "EBS_SNAPSHOT_MANAGEMENT", "ResourceTypes": [ "INSTANCE" ], "TargetTags": [{ "Key": "tag_key", "Value": "tag_value" }], "Schedules": [{ "Name": "schedule_name", "CreateRule": { "CronExpression": "cron_for_creation_frequency", "Scripts": [{ "Stages": ["PRE","POST"], "ExecutionHandlerService":"AWS_SYSTEMS_MANAGER", "ExecutionHandler":"ssm_document_name|arn", "ExecuteOperationOnScriptFailure":true|false, "ExecutionTimeout":timeout_in_seconds (10-120), "MaximumRetryCount":retries (0-3) }] }, "RetainRule": { "Count": retention_count } }] }

Überlegungen zu VSS Backups mit Amazon Data Lifecycle Manager

Mit Amazon Data Lifecycle Manager können Sie Windows-Anwendungen, die auf EC2 Amazon-Instances ausgeführt werden, sichern und wiederherstellen VSS (Volume Shadow Copy Service). Wenn für die Anwendung ein VSS Writer bei Windows registriert istVSS, erstellt Amazon Data Lifecycle Manager einen Snapshot, der für diese Anwendung anwendungskonsistent ist.

Anmerkung

Amazon Data Lifecycle Manager unterstützt derzeit EC2 nur anwendungskonsistente Snapshots von Ressourcen, die auf Amazon ausgeführt werden, insbesondere für Sicherungsszenarien, in denen Anwendungsdaten wiederhergestellt werden können, indem eine bestehende Instance durch eine neue Instance ersetzt wird, die aus dem Backup erstellt wurde. Nicht alle Instance-Typen oder Anwendungen werden für Backups unterstützt. VSS Weitere Informationen finden Sie unter Was ist AWS VSS? im EC2Amazon-Benutzerhandbuch.

Nicht unterstützte Instance-Typen

Die folgenden EC2 Amazon-Instance-Typen werden für VSS Backups nicht unterstützt. Wenn Ihre Richtlinie auf einen dieser Instance-Typen abzielt, erstellt Amazon Data Lifecycle Manager möglicherweise trotzdem VSS Backups, aber die Snapshots sind möglicherweise nicht mit den erforderlichen System-Tags gekennzeichnet. Ohne diese Tags werden die Snapshots nach der Erstellung nicht von Amazon Data Lifecycle Manager verwaltet. Sie müssen diese Snapshots möglicherweise manuell löschen.

  • T3: t3.nano | t3.micro

  • T3a: t3a.nano | t3a.micro

  • T2: t2.nano | t2.micro

Geteilte Verantwortlichkeit für anwendungskonsistente Snapshots

Sie müssen Folgendes sicherstellen:
  • Der SSM Agent ist installiert und wird auf Ihren Ziel-Instances ausgeführt up-to-date

  • Systems Manager verfügt über Berechtigungen zum Ausführen der erforderlichen Aktionen auf den Ziel-Instances.

  • Amazon Data Lifecycle Manager ist berechtigt, die Systems-Manager-Aktionen auszuführen, die für die Ausführung von Vor- und Nach-Skripten auf den Ziel-Instances erforderlich sind.

  • Für benutzerdefinierte Workloads, wie z. B. selbstverwaltete My-SQL, Postgre SQL - oder InterSystems IRIS Datenbanken, enthält das von Ihnen verwendete SSM Dokument die korrekten und erforderlichen Aktionen zum Einfrieren, Leeren und Auftauen von I/O für Ihre Datenbankkonfiguration.

  • Die Zeiten für die Snapshot-Erstellung richten sich nach Ihrem Workload-Zeitplan. Versuchen Sie beispielsweise, die Snapshot-Erstellung für geplante Wartungsfenster einzuplanen.

Amazon Data Lifecycle Manager stellt sicher, dass:
  • Die Snapshot-Erstellung wird innerhalb von 60 Minuten nach der geplanten Snapshot-Erstellung initiiert.

  • Vor-Skripte werden ausgeführt, bevor die Snapshot-Erstellung initiiert wird.

  • Nach-Skripte werden ausgeführt, nachdem das Vor-Skript erfolgreich war und die Snapshot-Erstellung initiiert wurde. Amazon Data Lifecycle Manager führt das Nach-Skript nur aus, wenn das Vor-Skript erfolgreich war. Wenn das Vor-Skript fehlschlägt, führt Amazon Data Lifecycle Manager das Nach-Skript nicht aus.

  • Snapshots werden bei der Erstellung mit den passenden Tags versehen.

  • CloudWatch Metriken und Ereignisse werden ausgegeben, wenn Skripts initiiert werden und wenn sie fehlschlagen oder erfolgreich sind.