

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Erstellen einer Aufgabe
<a name="CHAP_Tasks.Creating"></a>

Gehen Sie wie folgt vor, um eine AWS DMS Migrationsaufgabe zu erstellen:
+ Erstellen Sie einen Quellendpunkt, einen Zielendpunkt und eine Replikations-Instance, bevor Sie eine Migrationsaufgabe erstellen. 
+ Wählen Sie eine Migrationsmethode aus:
  + **Migrieren von Daten in die Zieldatenbank** – Dieser Prozess erstellt Dateien oder Tabellen in der Zieldatenbank und definiert automatisch die am Ziel erforderlichen Metadaten. Außerdem füllt er die Tabellen mit Daten aus der Quelle aus. Für eine bessere Effizienz werden die Daten parallel aus den Tabellen geladen. Dieser Vorgang ist die Option **Bestehende Daten migrieren** in der AWS-Managementkonsole und wird `Full Load` in der API aufgerufen.
  + **Aufzeichnen von Änderungen während der Migration** – Dieser Prozess erfasst Änderungen an der Quelldatenbank, die während der Migration der Daten von der Quelle zum Ziel auftreten. Wenn die Migration der ursprünglich angefragten Daten abgeschlossen ist, wendet der CDC (Change Data Capture)-Prozess die erfassten Änderungen auf die Zieldatenbank an. Änderungen werden erfasst und als Einheiten einzelner durchgeführter Transaktionen angewendet. Sie können mehrere verschiedene Tabellen als Commit einer einzelnen Quelle aktualisieren. Dieser Ansatz garantiert Transaktionsintegrität in der Zieldatenbank. Bei diesem Prozess handelt es sich in der Konsole um die Option **Migrate existing data and replicate ongoing changes (Vorhandene Daten migrieren und fortlaufende Änderungen replizieren)** und in der API um `full-load-and-cdc`.
  + **Nur Replizieren von Datenänderungen in der Quelldatenbank** – Bei diesem Prozess wird die Datei mit dem Wiederherstellungsprotokoll des Quell-DBMS (Datenbankmanagementsystem) gelesen und die Einträge für die einzelnen Transaktionen werden gruppiert. In einigen Fällen AWS DMS können Änderungen nicht innerhalb eines angemessenen Zeitraums auf das Ziel angewendet werden (z. B. wenn das Ziel nicht zugänglich ist). In diesen Fällen werden die AWS DMS Änderungen so lange wie nötig auf dem Replikationsserver zwischengespeichert. Er liest die Quell-DBMS-Protokolle nicht erneut, was viel Zeit in Anspruch nehmen kann. Dieser Prozess entspricht der Option **Nur Replizieren von Datenänderungen** in der AWS DMS -Konsole. 
+ Ermitteln Sie, wie die Aufgabe mit großen binären Objekten (LOBs) auf der Quelle umgehen soll. Weitere Informationen finden Sie unter [Einstellung der LOB-Unterstützung für Quelldatenbanken in einer Aufgabe AWS DMS](CHAP_Tasks.LOBSupport.md).
+ Geben Sie die Migrationsaufgabeneinstellungen an. Dazu gehören die Einrichtung der Protokollierung, Angaben dazu, welche Daten in die Migrationssteuertabelle geschrieben werden, wie Fehler behandelt werden sowie andere Einstellungen. Weitere Informationen zu den Aufgabeneinstellungen finden Sie unter [Angeben von Aufgabeneinstellungen für Aufgaben des AWS Database Migration Service](CHAP_Tasks.CustomizingTasks.TaskSettings.md).
+ Einrichten der Tabellenzuweisung, um Regeln zu definieren, anhand derer die zu migrierenden Daten ausgewählt und gefiltert werden. Weitere Informationen zur Tabellenzuweisung finden Sie unter [Verwenden der Tabellenzuweisung zum Angeben von Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TableMapping.md). Bevor Sie Ihre Zuweisung angeben, sollten Sie den Abschnitt in der Dokumentation zur Zuweisung der Datentypen für Ihre Quell- und Zieldatenbank lesen. 
+ Aktivieren Sie Vormigrations-Aufgabenbewertungen und führen Sie diese aus, bevor Sie die Aufgabe ausführen. Weitere Informationen zu Vormigrationsbewertungen finden Sie unter [Aktivieren und Verwenden von Vormigrationsbewertungen für eine Aufgabe](CHAP_Tasks.AssessmentReport.md).
+ Geben Sie alle erforderlichen zusätzlichen Daten für die Aufgabe an, um Ihre Daten zu migrieren. Weitere Informationen finden Sie unter [Angeben zusätzlicher Daten für Aufgabeneinstellungen](CHAP_Tasks.TaskData.md).

Sie können festlegen, dass eine Aufgabe gestartet wird, sobald Sie die Informationen zu dieser Aufgabe auf der Seite **Create task (Aufgabe erstellen)** angegeben haben. Alternativ können Sie die Aufgabe auch später von der Dashboard-Seite aus starten.

Im folgenden Verfahren wird davon ausgegangen, dass Sie bereits Informationen und Endpunkte der Replikations-Instance angegeben haben. Weitere Informationen zum Einrichten von Endpunkten finden Sie unter [Erstellen der Quell- und Zielendpunkte](CHAP_Endpoints.Creating.md).

**So erstellen Sie eine Migrationsaufgabe**

1. Melden Sie sich bei [https://console.aws.amazon.com/dms/v2/](https://console.aws.amazon.com/dms/v2/) an AWS-Managementkonsole und öffnen Sie die AWS DMS Konsole. 

   Wenn Sie als AWS Identity and Access Management (IAM-) Benutzer angemeldet sind, stellen Sie sicher, dass Sie über die entsprechenden Zugriffsberechtigungen verfügen. AWS DMS Weitere Informationen zu den erforderlichen Berechtigungen finden Sie unter [Für die Verwendung sind IAM-Berechtigungen erforderlich AWS DMS](security-iam.md#CHAP_Security.IAMPermissions).

1. Wählen Sie im Navigationsbereich **Datenbankmigrationsaufgaben** und dann **Aufgabe erstellen** aus.

1. Geben Sie auf der Seite **Datenbankmigrationsaufgabe erstellen** im Abschnitt **Aufgabenkonfiguration** die Aufgabenoptionen an. In der folgenden Tabelle sind die Einstellungen beschrieben.  
![\[Aufgabe erstellen\]](http://docs.aws.amazon.com/de_de/dms/latest/userguide/images/datarep-gs-wizard4.png)    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/dms/latest/userguide/CHAP_Tasks.Creating.html)

1. Geben Sie im Abschnitt **Aufgabeneinstellungen** Werte für die Bearbeitung Ihrer Aufgabe, den Zieltabellen-Vorbereitungsmodus, den Aufgabenstopp, LOB-Einstellungen, Validierung und Protokollierung an.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/dms/latest/userguide/CHAP_Tasks.Creating.html)

1. Wählen Sie im Abschnitt **Vormigrationsbewertung** aus, ob eine Vormigrationsbewertung ausgeführt werden soll. Eine Vormigrationsbewertung warnt Sie vor potenziellen Migrationsproblemen, bevor Sie mit der Datenbankmigration beginnen. Weitere Informationen finden Sie unter [Aktivieren und Verwenden von Vormigrationsbewertungen](CHAP_Tasks.AssessmentReport.md). 

1. Geben Sie im Abschnitt **Startup-Konfiguration der Migrationsaufgabe** an, ob die Aufgabe automatisch nach der Erstellung gestartet werden soll.

1. Geben Sie im Abschnitt **Tags** alle Tags an, die Sie zur Organisation Ihrer Aufgabe benötigen. Sie können Tags verwenden, um Ihre IAM-Rollen und -Richtlinien zu verwalten und Ihre DMS-Kosten nachzuverfolgen. Weitere Informationen finden Sie unter [Taggen von -Ressourcen](CHAP_Tagging.md).

1. Wenn Sie mit den Aufgabeneinstellungen fertig sind, wählen Sie **Create task (Aufgabe erstellen)** aus.

# Angeben von Aufgabeneinstellungen für Aufgaben des AWS Database Migration Service
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings"></a>

Jede Aufgabe hat Einstellungen, die entsprechend den Anforderungen Ihrer Datenbankmigration konfiguriert werden können. Sie erstellen diese Einstellungen in einer JSON-Datei, oder bei einigen Einstellungen können Sie die Einstellungen mithilfe der AWS DMS Konsole angeben. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](#CHAP_Tasks.CustomizingTasks.TaskSettings.Example).

Es gibt mehrere Hauptarten von Aufgabeneinstellungen, wie nachfolgend aufgelistet:

**Topics**
+ [

## Beispiel für Aufgabeneinstellungen
](#CHAP_Tasks.CustomizingTasks.TaskSettings.Example)
+ [

# Ziel-Metadaten-Aufgabeneinstellungen
](CHAP_Tasks.CustomizingTasks.TaskSettings.TargetMetadata.md)
+ [

# Aufgabeneinstellungen für vollständiges Laden
](CHAP_Tasks.CustomizingTasks.TaskSettings.FullLoad.md)
+ [

# Time-Travel-Aufgabeneinstellungen
](CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.md)
+ [

# Einstellungen für das Protokollieren von Aufgaben
](CHAP_Tasks.CustomizingTasks.TaskSettings.Logging.md)
+ [

# Kontrolltabellen-Aufgabeneinstellungen
](CHAP_Tasks.CustomizingTasks.TaskSettings.ControlTable.md)
+ [

# Stream-Puffer-Aufgabeneinstellungen
](CHAP_Tasks.CustomizingTasks.TaskSettings.StreamBuffer.md)
+ [

# Einstellungen für die Optimierung der Verarbeitung von Änderungen
](CHAP_Tasks.CustomizingTasks.TaskSettings.ChangeProcessingTuning.md)
+ [

# Aufgabeneinstellungen zur Datenvalidierung
](CHAP_Tasks.CustomizingTasks.TaskSettings.DataValidation.md)
+ [

# Einstellungen für die Resynchronisierung von Daten
](CHAP_Tasks.CustomizingTasks.TaskSettings.DataResyncSettings.md)
+ [

# Aufgabeneinstellungen für den Umgang mit der DDL-Änderungsverarbeitung
](CHAP_Tasks.CustomizingTasks.TaskSettings.DDLHandling.md)
+ [

# Einstellungen der Zeichenersetzungsaufgabe
](CHAP_Tasks.CustomizingTasks.TaskSettings.CharacterSubstitution.md)
+ [

# Vorher-Abbild-Aufgabeneinstellungen
](CHAP_Tasks.CustomizingTasks.TaskSettings.BeforeImage.md)
+ [

# Aufgabeneinstellungen zur Fehlerbehandlung
](CHAP_Tasks.CustomizingTasks.TaskSettings.ErrorHandling.md)
+ [

# Speichern der Aufgabeneinstellungen
](CHAP_Tasks.CustomizingTasks.TaskSettings.Saving.md)


| Task settings (Aufgabeneinstellungen) | Relevante Dokumentation | 
| --- | --- | 
|   **Erstellen eines Aufgabenbewertungsberichts**  Sie können einen Aufgabenbewertungsbericht erstellen, der alle nicht unterstützten Datentypen aufzeigt, die während der Migration zu Problemen führen könnten. Sie können diesen Bericht vor der Ausführung Ihrer Aufgabe ausführen, um potenzielle Probleme aufzuzeigen.  |  [Aktivieren und Verwenden von Vormigrationsbewertungen für eine Aufgabe](CHAP_Tasks.AssessmentReport.md)  | 
|   **Erstellen einer Aufgabe**  Wenn Sie eine Aufgabe erstellen, geben Sie die Quelle, das Ziel und die Replikations-Instance zusammen mit den Migrationseinstellungen an.  |  [Erstellen einer Aufgabe](CHAP_Tasks.Creating.md)  | 
|   **Erstellen einer fortlaufenden Replikationsaufgabe**  Sie können eine Aufgabe einrichten, um die fortlaufende Replikation zwischen Quelle und Ziel bereitzustellen.   |  [Aufgaben für die laufende Replikation erstellen mit AWS DMS](CHAP_Task.CDC.md)  | 
|   **Anwenden von Aufgabeneinstellungen**  Jede Aufgabe hat Einstellungen, die entsprechend den Anforderungen Ihrer Datenbankmigration konfiguriert werden können. Sie erstellen diese Einstellungen in einer JSON-Datei, oder bei einigen Einstellungen können Sie die Einstellungen mithilfe der AWS DMS Konsole angeben.  |  [Angeben von Aufgabeneinstellungen für Aufgaben des AWS Database Migration Service](#CHAP_Tasks.CustomizingTasks.TaskSettings)  | 
|   **Datenvalidierung**  Verwenden Sie die Datenvalidierung, um die Daten in Ihrem Zieldatenspeicher mit den Daten aus Ihrem Quelldatenspeicher zu AWS DMS vergleichen.  |  [AWS DMS-Datenvalidierung](CHAP_Validating.md)  | 
|   **Ändern einer Aufgabe**  Wenn eine Aufgabe angehalten wird, können Sie die Einstellungen für die Aufgabe ändern.  |  [Ändern einer Aufgabe](CHAP_Tasks.Modifying.md)  | 
|   **Erneutes Laden von Tabellen während einer Aufgabe**  Sie können eine Tabelle während einer Aufgabe neu laden, wenn während einer Aufgabe ein Fehler auftritt.  |  [Erneutes Laden von Tabellen während einer Aufgabe](CHAP_Tasks.ReloadTables.md)  | 
|   **Verwenden der Tabellenzuweisung**  Die Tabellenzuweisung verwendet mehrere Arten von Aufgabeneinstellungen für die Angabe der Datenquelle, des Quellschemas, der Daten und aller Transformationen, die während der Aufgabe auftreten sollten.  |  Auswahlregeln [Auswahlregeln und Aktionen](CHAP_Tasks.CustomizingTasks.TableMapping.SelectionTransformation.Selections.md) Transformationsregeln [Transformationsregeln und Aktionen](CHAP_Tasks.CustomizingTasks.TableMapping.SelectionTransformation.Transformations.md)  | 
|   **Anwenden von Filtern**  Sie können Quellfilter verwenden, um Anzahl und Art der Datensätze zu beschränken, die von Ihrer Quelle auf Ihr Ziel übertragen werden. So können Sie beispielsweise festlegen, dass nur die am Hauptsitz ansässigen Angestellten in die Zieldatenbank übertragen werden. Sie wenden Filter auf eine Datenspalte an.  |  [Verwenden von Quellfiltern](CHAP_Tasks.CustomizingTasks.Filters.md)  | 
| Überwachen einer Aufgabe Es gibt mehrere Möglichkeiten, um Informationen über die Durchführung einer Aufgabe und die von der Aufgabe verwendeten Tabellen zu erhalten.  |  [AWS DMS-Aufgaben überwachen](CHAP_Monitoring.md)  | 
| Verwalten von Aufgabenprotokollen Sie können Aufgabenprotokolle mithilfe der AWS DMS API oder anzeigen und löschen AWS CLI.   |  [AWS DMS-Aufgabenprotokolle anzeigen und verwalten](CHAP_Monitoring.md#CHAP_Monitoring.ManagingLogs)  | 

## Beispiel für Aufgabeneinstellungen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.Example"></a>

Sie können entweder den AWS-Managementkonsole oder verwenden AWS CLI , um eine Replikationsaufgabe zu erstellen. Wenn Sie die verwenden AWS CLI, legen Sie die Aufgabeneinstellungen fest, indem Sie eine JSON-Datei erstellen und dann den file://URI der JSON-Datei als [ ReplicationTaskSettings](https://docs.aws.amazon.com/dms/latest/APIReference/API_CreateReplicationTask.html#DMS-CreateReplicationTask-request-ReplicationTaskSettings)Parameter des [CreateReplicationTask](https://docs.aws.amazon.com/dms/latest/APIReference/API_CreateReplicationTask.html)Vorgangs angeben.

Das folgende Beispiel zeigt, wie der AWS CLI zum Aufrufen der `CreateReplicationTask` Operation verwendet wird:

```
aws dms create-replication-task \
--replication-task-identifier MyTask \
--source-endpoint-arn arn:aws:dms:us-west-2:123456789012:endpoint:ABCDEFGHIJKLMNOPQRSTUVWXYZ1234567890ABC \
--target-endpoint-arn arn:aws:dms:us-west-2:123456789012:endpoint:ABCDEFGHIJKLMNOPQRSTUVWXYZ1234567890ABC \
--replication-instance-arn arn:aws:dms:us-west-2:123456789012:rep:ABCDEFGHIJKLMNOPQRSTUVWXYZ1234567890ABC \
--migration-type cdc \
--table-mappings file://tablemappings.json \
--replication-task-settings file://settings.json
```

Im vorherigen Beispiel wurde eine Tabellenzuweisungsdatei namens `tablemappings.json` verwendet. Beispiele für Tabellenzuweisungen finden Sie unter [Verwenden der Tabellenzuweisung zum Angeben von Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TableMapping.md).

Eine JSON-Datei für Aufgabeneinstellungen kann folgendermaßen aussehen. 

```
{
  "TargetMetadata": {
    "TargetSchema": "",
    "SupportLobs": true,
    "FullLobMode": false,
    "LobChunkSize": 64,
    "LimitedSizeLobMode": true,
    "LobMaxSize": 32,
    "InlineLobMaxSize": 0,
    "LoadMaxFileSize": 0,
    "ParallelLoadThreads": 0,
    "ParallelLoadBufferSize":0,
    "ParallelLoadQueuesPerThread": 1,
    "ParallelApplyThreads": 0,
    "ParallelApplyBufferSize": 100,
    "ParallelApplyQueuesPerThread": 1,    
    "BatchApplyEnabled": false,
    "TaskRecoveryTableEnabled": false
  },
  "FullLoadSettings": {
    "TargetTablePrepMode": "DO_NOTHING",
    "CreatePkAfterFullLoad": false,
    "StopTaskCachedChangesApplied": false,
    "StopTaskCachedChangesNotApplied": false,
    "MaxFullLoadSubTasks": 8,
    "TransactionConsistencyTimeout": 600,
    "CommitRate": 10000
  },
    "TTSettings" : {
    "EnableTT" : true,
    "TTS3Settings": {
        "EncryptionMode": "SSE_KMS",
        "ServerSideEncryptionKmsKeyId": "arn:aws:kms:us-west-2:112233445566:key/myKMSKey",
        "ServiceAccessRoleArn": "arn:aws:iam::112233445566:role/dms-tt-s3-access-role",
        "BucketName": "myttbucket",
        "BucketFolder": "myttfolder",
        "EnableDeletingFromS3OnTaskDelete": false
      },
    "TTRecordSettings": {
        "EnableRawData" : true,
        "OperationsToLog": "DELETE,UPDATE",
        "MaxRecordSize": 64
      }
  },
  "Logging": {
    "EnableLogging": false
  },
  "ControlTablesSettings": {
    "ControlSchema":"",
    "HistoryTimeslotInMinutes":5,
    "HistoryTableEnabled": false,
    "SuspendedTablesTableEnabled": false,
    "StatusTableEnabled": false
  },
  "StreamBufferSettings": {
    "StreamBufferCount": 3,
    "StreamBufferSizeInMB": 8
  },
  "ChangeProcessingTuning": { 
    "BatchApplyPreserveTransaction": true, 
    "BatchApplyTimeoutMin": 1, 
    "BatchApplyTimeoutMax": 30, 
    "BatchApplyMemoryLimit": 500, 
    "BatchSplitSize": 0, 
    "MinTransactionSize": 1000, 
    "CommitTimeout": 1, 
    "MemoryLimitTotal": 1024, 
    "MemoryKeepTime": 60, 
    "StatementCacheSize": 50 
  },
  "ChangeProcessingDdlHandlingPolicy": {
    "HandleSourceTableDropped": true,
    "HandleSourceTableTruncated": true,
    "HandleSourceTableAltered": true
  },
  "LoopbackPreventionSettings": {
    "EnableLoopbackPrevention": true,
    "SourceSchema": "LOOP-DATA",
    "TargetSchema": "loop-data"
  },

  "CharacterSetSettings": {
    "CharacterReplacements": [ {
        "SourceCharacterCodePoint": 35,
        "TargetCharacterCodePoint": 52
      }, {
        "SourceCharacterCodePoint": 37,
        "TargetCharacterCodePoint": 103
      }
    ],
    "CharacterSetSupport": {
      "CharacterSet": "UTF16_PlatformEndian",
      "ReplaceWithCharacterCodePoint": 0
    }
  },
  "BeforeImageSettings": {
    "EnableBeforeImage": false,
    "FieldName": "",  
    "ColumnFilter": "pk-only"
  },
  "ErrorBehavior": {
    "DataErrorPolicy": "LOG_ERROR",
    "DataTruncationErrorPolicy":"LOG_ERROR",
    "DataMaskingErrorPolicy": "STOP_TASK",
    "DataErrorEscalationPolicy":"SUSPEND_TABLE",
    "DataErrorEscalationCount": 50,
    "TableErrorPolicy":"SUSPEND_TABLE",
    "TableErrorEscalationPolicy":"STOP_TASK",
    "TableErrorEscalationCount": 50,
    "RecoverableErrorCount": 0,
    "RecoverableErrorInterval": 5,
    "RecoverableErrorThrottling": true,
    "RecoverableErrorThrottlingMax": 1800,
    "ApplyErrorDeletePolicy":"IGNORE_RECORD",
    "ApplyErrorInsertPolicy":"LOG_ERROR",
    "ApplyErrorUpdatePolicy":"LOG_ERROR",
    "ApplyErrorEscalationPolicy":"LOG_ERROR",
    "ApplyErrorEscalationCount": 0,
    "FullLoadIgnoreConflicts": true
  },
  "ValidationSettings": {
    "EnableValidation": false,
    "ValidationMode": "ROW_LEVEL",
    "ThreadCount": 5,
    "PartitionSize": 10000,
    "FailureMaxCount": 1000,
    "RecordFailureDelayInMinutes": 5,
    "RecordSuspendDelayInMinutes": 30,
    "MaxKeyColumnSize": 8096,
    "TableFailureMaxCount": 10000,
    "ValidationOnly": false,
    "HandleCollationDiff": false,
    "RecordFailureDelayLimitInMinutes": 1,
    "SkipLobColumns": false,
    "ValidationPartialLobSize": 0,
    "ValidationQueryCdcDelaySeconds": 0
  }
}
```

# Ziel-Metadaten-Aufgabeneinstellungen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.TargetMetadata"></a>

Zu den Ziel-Metadateneinstellungen gehören folgende Einstellungen: Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example).
+ `TargetSchema` – Der Name des Zieltabellenschemas. Wenn diese Metadatenoption leer ist, wird das Schema der Quelltabelle verwendet. AWS DMS fügt allen Tabellen automatisch das Eigentümerpräfix für die Zieldatenbank hinzu, wenn kein Quellschema definiert ist. Diese Option sollte für Ziel-Endpunkte vom Typ MySQL leer gelassen werden. Das Umbenennen eines Schemas in der Datenzuordnung hat Vorrang vor dieser Einstellung.
+ LOB-Einstellungen — Einstellungen, die bestimmen, wie große Objekte (LOBs) verwaltet werden. Wenn Sie `SupportLobs=true` festlegen, müssen Sie eines der Folgenden auf `true` setzen: 
  + `FullLobMode` – Wenn Sie für diese Option `true` festlegen, müssen Sie einen Wert für die Option `LobChunkSize` eingeben. Geben Sie die zu verwendende Größe der LOB-Blöcke (in Kilobyte) ein, wenn die Daten in der Zieldatenbank repliziert werden. Die Option `FullLobMode` funktioniert am besten bei sehr großen LOB-Größen, verlangsamt jedoch den Ladevorgang. Der empfohlene Wert für `LobChunkSize` ist 64 Kilobyte. Wenn für `LobChunkSize` ein höherer Wert als 64 Kilobyte verwendet wird, kann dies zu Aufgabenfehlern führen.
  + `InlineLobMaxSize`— Dieser Wert bestimmt, welche LOBs AWS DMS Inline-Übertragungen während einer Volllast übertragen werden. Das Übertragen kleiner Dateien LOBs ist effizienter als das Nachschlagen in einer Quelltabelle. AWS DMS Überprüft bei einem vollen Ladevorgang alle Werte LOBs und führt eine Inline-Übertragung für diejenigen durch LOBs , die kleiner als sind`InlineLobMaxSize`. AWS DMS überträgt alle, die LOBs größer als der `InlineLobMaxSize` Eingang sind`FullLobMode`. Der Standardwert für `InlineLobMaxSize` ist 0 und der Bereich liegt zwischen 1 und 102 400 Kilobyte (100 MB). Legen Sie `InlineLobMaxSize` nur dann einen Wert für fest, wenn Sie wissen, dass die meisten davon kleiner LOBs sind als der unter angegebene Wert`InlineLobMaxSize`.
  + `LimitedSizeLobMode` – Wenn Sie für diese Option `true` festlegen, müssen Sie einen Wert für die Option `LobMaxSize` eingeben. Geben Sie die maximale Größe in Kilobyte für ein einzelnes LOB ein. Der Höchstwert für `LobMaxSize` ist 102400 Kilobyte (100 MB).

  Weitere Informationen zu den Kriterien für die Verwendung dieser Aufgaben-LOB-Einstellungen finden Sie unter [Einstellung der LOB-Unterstützung für Quelldatenbanken in einer Aufgabe AWS DMS](CHAP_Tasks.LOBSupport.md). Sie können auch die Verwaltung einzelner LOBs Tabellen steuern. Weitere Informationen finden Sie unter [Regeln und Operationen für Tabellen- und Sammlungseinstellungen](CHAP_Tasks.CustomizingTasks.TableMapping.SelectionTransformation.Tablesettings.md).
+ `BatchApplyEnabled` – Legt fest, ob jede Transaktion einzeln angewendet wird oder ob Änderungen in Stapeln übernommen werden. Der Standardwert ist `false`.

  Wenn `BatchApplyEnabled` auf `true` gesetzt ist, erfordert DMS einen Primärschlüssel (PK) oder einen eindeutigen Schlüssel (Unique Key – UK) in der/den **Quelltabelle**(n). Ohne PK oder UK in den Quelltabellen werden nur Stapeleinfügungen, jedoch keine Stapelaktualisierungen und Stapellöschungen angewendet.

  Wenn `BatchApplyEnabled` auf `true` gesetzt ist, generiert AWS DMS eine Fehlermeldung, wenn eine **Ziel**-Tabelle über eine Eindeutigkeitseinschränkung und einen Primärschlüssel verfügt. Zieltabellen mit Eindeutigkeitseinschränkung und Primärschlüssel werden nicht unterstützt, wenn `BatchApplyEnabled` auf `true` gesetzt ist.

  Wenn der Wert auf true gesetzt `BatchApplyEnabled` ist AWS DMS und ein Datenfehler in einer Tabelle mit der Standardrichtlinie zur Fehlerbehandlung auftritt, wechselt die AWS DMS Aufgabe vom Batchmodus in den one-by-one Modus für die übrigen Tabellen. Um dieses Verhalten zu ändern, können Sie die Aktion `"SUSPEND_TABLE"` für die folgenden Richtlinien in der Gruppeneigenschaft `"ErrorBehavior"` der JSON-Datei mit den Aufgabeneinstellungen festlegen:
  + `DataErrorPolicy`
  + `ApplyErrorDeletePolicy`
  + `ApplyErrorInsertPolicy`
  + `ApplyErrorUpdatePolicy`

  Weitere Informationen zu dieser Gruppeneigenschaft `"ErrorBehavior"` finden Sie in der JSON-Beispieldatei mit Aufgabeneinstellungen in [Angeben von Aufgabeneinstellungen für Aufgaben des AWS Database Migration Service](CHAP_Tasks.CustomizingTasks.TaskSettings.md). Nachdem diese Richtlinien auf gesetzt wurden`"SUSPEND_TABLE"`, unterbricht die AWS DMS Aufgabe Datenfehler in allen Tabellen, die sie auslösen, und setzt den Vorgang für alle Tabellen im Batchmodus fort.

  Sie können den Parameter `BatchApplyEnabled` mit dem Parameter `BatchApplyPreserveTransaction` verwenden. Wenn `BatchApplyEnabled` auf `true` festgelegt ist, bestimmt der Parameter `BatchApplyPreserveTransaction` die Integrität der Transaktionen. 

  Wenn `BatchApplyPreserveTransaction` auf `true` festgelegt ist, wird die Transaktionsintegrität bewahrt und ein Stapel enthält garantiert alle Änderungen innerhalb einer Transaktion von der Quelle.

  Wenn `BatchApplyPreserveTransaction` auf `false` festgelegt ist, kann es zu temporären Ausfällen bei der Transaktionsintegrität kommen, um die Leistung zu verbessern. 

  Der Parameter `BatchApplyPreserveTransaction` gilt ausschließlich für Oracle-Zielendpunkte und ist nur relevant, wenn der Parameter `BatchApplyEnabled` auf `true` festgelegt ist.

  Wenn die Replikation LOB-Spalten enthält, können Sie `BatchApplyEnabled` nur im Limited LOB-Modus verwenden.

  Weitere Informationen zur Verwendung dieser Einstellungen zum CDC-Laden (CDC = Change Data Capture) finden Sie unter [Einstellungen für die Optimierung der Verarbeitung von Änderungen](CHAP_Tasks.CustomizingTasks.TaskSettings.ChangeProcessingTuning.md).
+ `MaxFullLoadSubTasks` – Gibt die maximale Anzahl von Tabellen an, die parallel geladen werden sollen. Der Standardwert beträgt 8; der Maximalwert beträgt 49.
+ `ParallelLoadThreads`— Gibt die Anzahl der Threads an, die AWS DMS verwendet werden, um jede Tabelle in die Zieldatenbank zu laden. Für diesen Parameter gelten Höchstwerte für Nicht-RDBMS-Ziele. Der Höchstwert für ein DynamoDB-Ziel beträgt 200. Der Höchstwert für ein Amazon Kinesis Data Streams-, Apache Kafka- oder Amazon OpenSearch Service-Ziel ist 32. Sie können eine Erhöhung dieses Höchstwerts beantragen. `ParallelLoadThreads` gilt für Aufgaben mit vollständigem Ladevorgang. Weitere Informationen zu den Einstellungen, mit denen das parallele Laden einzelner Tabellen aktiviert wird, finden Sie unter [Regeln und Operationen für Tabellen- und Sammlungseinstellungen](CHAP_Tasks.CustomizingTasks.TableMapping.SelectionTransformation.Tablesettings.md).

  Diese Einstellung gilt für die folgenden Endpunkt-Engine-Typen:
  + DynamoDB
  + Amazon Kinesis Data Streams
  + Amazon MSK
  +  OpenSearch Amazon-Dienst
  + Amazon Redshift

  AWS DMS unterstützt `ParallelLoadThreads` MySQL als zusätzliches Verbindungsattribut. `ParallelLoadThreads`gilt nicht für MySQL als Aufgabeneinstellung. 
+ `ParallelLoadBufferSize` gibt die maximale Anzahl der Datensätze an, die in dem Puffer gespeichert werden können, den die parallelen Lade-Threads zum Laden von Daten in das Ziel verwenden. Der Standardwert lautet 50. Die maximale Wert ist 1.000. Diese Einstellung ist derzeit nur gültig, wenn DynamoDB, Kinesis, Apache Kafka oder OpenSearch das Ziel ist. Verwenden Sie diesen Parameters mit `ParallelLoadThreads`. `ParallelLoadBufferSize` ist nur gültig, wenn mehr als ein Thread vorhanden ist. Weitere Informationen zu den Einstellungen, mit denen das parallele Laden einzelner Tabellen aktiviert wird, finden Sie unter [Regeln und Operationen für Tabellen- und Sammlungseinstellungen](CHAP_Tasks.CustomizingTasks.TableMapping.SelectionTransformation.Tablesettings.md).
+ `ParallelLoadQueuesPerThread` – Gibt die Anzahl der Warteschlangen an, auf die jeder gleichzeitige Thread zugreift, um Datensätze aus Warteschlangen zu entfernen und einen Stapelladevorgang für das Ziel zu generieren. Der Standardwert ist 1. Diese Einstellung ist derzeit nur gültig, wenn Kinesis oder Apache Kafka das Ziel ist.
+ `ParallelApplyThreads`— Gibt die Anzahl der gleichzeitigen Threads an, die während eines CDC-Ladens AWS DMS verwendet werden, um Datensätze an einen Amazon DocumentDB-, Kinesis-, Amazon MSK- oder Amazon Redshift Redshift-Zielendpunkt OpenSearch zu übertragen. Der Standardwert ist Null (0).

  Diese Einstellung gilt nur für reines CDC. Diese Einstellung gilt nicht für vollständiges Laden.

  

  Diese Einstellung gilt für die folgenden Endpunkt-Engine-Typen:
  + Amazon DocumentDB (mit MongoDB-Kompatibilität)
  + Amazon Kinesis Data Streams
  + Amazon Managed Streaming für Apache Kafka
  +  OpenSearch Amazon-Dienst
  + Amazon Redshift
+ `ParallelApplyBufferSize`— Gibt die maximale Anzahl von Datensätzen an, die in jeder Pufferwarteschlange gespeichert werden sollen, damit gleichzeitige Threads während eines CDC-Ladevorgangs an einen Amazon DocumentDB-, Kinesis-, Amazon MSK- oder Amazon Redshift-Zielendpunkt weitergeleitet werden. OpenSearch Der Standardwert lautet 100. Der Höchstwert ist 1000. Verwenden Sie diese Option, wenn `ParallelApplyThreads` mehrere Threads angibt. 
+ `ParallelApplyQueuesPerThread`— Gibt die Anzahl der Warteschlangen an, auf die jeder Thread zugreift, um Datensätze aus Warteschlangen zu entfernen und während der CDC einen Batchload für eine Amazon DocumentDB, Kinesis, Amazon MSK oder einen Endpunkt zu generieren. OpenSearch Der Standardwert ist 1.

# Aufgabeneinstellungen für vollständiges Laden
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.FullLoad"></a>

Zu den Einstellungen für vollständiges Laden gehören die folgenden Einstellungen. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example).
+ Um anzuzeigen, wie das Laden der Zieldatenbank beim Start von Full Load zu behandeln ist, bestimmen Sie einen der folgenden Werte für die Option `TargetTablePrepMode`: 
  +  `DO_NOTHING` – Daten und Metadaten der vorhandenen Zieltabelle sind nicht betroffen. 
  +  `DROP_AND_CREATE` – Die vorhandene Tabelle wird gelöscht und stattdessen wird eine neue Tabelle erstellt. 
  +  `TRUNCATE_BEFORE_LOAD` – Daten werden gekürzt, ohne dass sich dies auf die Metadaten der Tabelle auswirkt.
+ Um das Erstellen des Primärschlüssels oder des eindeutigen Index bis nach Abschluss des vollständigen Ladens zu verzögern, setzen Sie die Option `CreatePkAfterFullLoad` auf `true`.
+ Für Aufgaben, bei denen Full-Load und CDC aktiviert sind, können Sie die folgenden Optionen für `Stop task after full load completes` festlegen: 
  + `StopTaskCachedChangesApplied` – Legen Sie für diese Option `true` fest, um eine Aufgabe zu stoppen, nachdem das vollständige Laden abgeschlossen ist und zwischengespeicherte Änderungen angewendet wurden. 
  + `StopTaskCachedChangesNotApplied` – Legen Sie für diese Option `true` fest, um eine Aufgabe zu stoppen, bevor zwischengespeicherte Änderungen angewendet werden. 
+ Um die maximale Anzahl von Tabellen anzugeben, die parallel geladen werden, legen Sie die Option `MaxFullLoadSubTasks` fest. Der Standardwert beträgt 8; der Maximalwert beträgt 49.
+ Legen Sie die Option `ParallelLoadThreads` fest, um anzugeben, wie viele gleichzeitige Threads DMS während eines vollständigen Ladevorgangs verwenden soll, um Datensätze an einen Zielendpunkt zu übertragen. Der Standardwert ist Null (0).
**Wichtig**  
`MaxFullLoadSubTasks` steuert die Anzahl der Tabellen oder Tabellensegmente, die parallel geladen werden sollen. `ParallelLoadThreads` steuert die Anzahl der Threads, die von einer Migrationsaufgabe verwendet werden, um die Ladevorgänge parallel auszuführen. *Diese Einstellungen sind multiplikativ*. Daher ist die Gesamtzahl der Threads, die während einer Vollast-Aufgabe verwendet werden, ungefähr das Ergebnis des Werts `ParallelLoadThreads ` multipliziert mit dem Wert von `MaxFullLoadSubTasks` (`ParallelLoadThreads` **\$1** `MaxFullLoadSubtasks)`.  
Wenn Sie Aufgaben mit einer hohen Anzahl von Unteraufgaben für vollständiges Laden und einer hohen Anzahl von parallelen Lade-Threads erstellen, kann Ihre Aufgabe zu viel Speicher verbrauchen und fehlschlagen.
+ Sie können festlegen, wie viele Sekunden auf das Schließen von Transaktionen AWS DMS gewartet werden soll, bevor ein Vollladevorgang gestartet wird. Wenn Transaktionen beim Start der Aufgabe geöffnet sind, legen Sie dazu die Option `TransactionConsistencyTimeout` fest. Der Standardwert ist 600 (10 Minuten). AWS DMS startet den vollen Ladevorgang, nachdem der Timeout-Wert erreicht ist, auch wenn offene Transaktionen vorhanden sind. Eine full-load-only Aufgabe wartet nicht 10 Minuten, sondern wird sofort gestartet.
+ Um die maximale Anzahl von Datensätzen anzugeben, die zusammen übertragen werden können, legen Sie die Option `CommitRate` fest. Der Standardwert ist 10 000 und der maximale Wert 50 000.

# Time-Travel-Aufgabeneinstellungen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel"></a>

Um Replikationsaufgaben zu protokollieren und zu debuggen, können Sie AWS DMS Time Travel verwenden. Bei diesem Vorgehen verwenden Sie Amazon S3, um Protokolle zu speichern und mit Ihren Verschlüsselungsschlüsseln zu verschlüsseln. Nur wenn Sie Zugriff auf Ihren Time-Travel-S3-Bucket haben, können Sie Ihre S3-Protokolle mithilfe von Datums- und Uhrzeitfiltern abrufen und die Protokolle dann nach Bedarf anzeigen, herunterladen und verschleiern. Auf diese Weise können Sie sicher „in die Vergangenheit reisen“, um Datenbankaktivitäten zu untersuchen. Time Travel funktioniert unabhängig von der CloudWatch Protokollierung. Weitere Informationen zur CloudWatch Protokollierung finden Sie unter[Einstellungen für das Protokollieren von Aufgaben](CHAP_Tasks.CustomizingTasks.TaskSettings.Logging.md). 

Sie können Time Travel in allen AWS Regionen mit AWS DMS unterstützten Oracle-, Microsoft SQL Server- und PostgreSQL-Quellendpunkten und AWS DMS-unterstützten PostgreSQL- und MySQL-Zielendpunkten verwenden. Sie können Time Travel nur für Aufgaben für vollständiges Laden und CDC (Change Data Capture) und für reine CDC-Aufgaben aktivieren. Um Time Travel zu aktivieren oder vorhandene Time-Travel-Einstellungen zu ändern, stellen Sie sicher, dass Ihre Replikationsaufgabe gestoppt wurde.

Die Time-Travel-Einstellungen umfassen die folgenden `TTSettings`-Eigenschaften:
+ `EnableTT` – Wenn diese Option auf `true` gesetzt ist, ist die Time-Travel-Protokollierung für die Aufgabe aktiviert. Der Standardwert ist `false`.

  Typ: Boolesch

  Erforderlich: Nein
+ `EncryptionMode` – Die Art der serverseitigen Verschlüsselung, die in Ihrem S3-Bucket zum Speichern Ihrer Daten und Protokolle verwendet wird. Sie können entweder `"SSE_S3"` (Standardwert) oder `"SSE_KMS"` angeben.

  Sie können `EncryptionMode` von `"SSE_KMS"` auf `"SSE_S3"` umstellen, aber nicht umgekehrt.

  Typ: Zeichenfolge

  Erforderlich: Nein
+ `ServerSideEncryptionKmsKeyId`— Wenn Sie `"SSE_KMS"` für angeben, geben Sie die ID für Ihren benutzerdefinierten `EncryptionMode` verwalteten Schlüssel an. AWS KMS Stellen Sie sicher, dass dem von Ihnen verwendeten Schlüssel eine Richtlinie beigefügt ist, die AWS Identity and Access Management (IAM-) Benutzerberechtigungen aktiviert und die Verwendung des Schlüssels ermöglicht. 

  Mit der Option `"SSE_KMS"` wird nur Ihr eigener benutzerdefiniert-verwalteter symmetrischer KMS-Schlüssel unterstützt.

  Typ: Zeichenfolge

  Erforderlich: nur wenn `EncryptionMode` auf `"SSE_KMS"` gesetzt wird
+ `ServiceAccessRoleArn` – Der Amazon-Ressourcenname (ARN), den der Service zum Zugriff auf die IAM-Rolle verwendet. Legen Sie für den Rollennamen `dms-tt-s3-access-role` fest. Dies ist eine erforderliche Einstellung, die das Schreiben und Lesen von Objekten aus einem S3-Bucket ermöglicht AWS DMS .

  Typ: Zeichenfolge

  Erforderlich: wenn Time Travel aktiviert ist

  Im Folgenden sehen Sie eine Beispielrichtlinie für diese Rolle.

------
#### [ JSON ]

****  

  ```
  {
   "Version":"2012-10-17",		 	 	 
   "Statement": [
          {
              "Sid": "VisualEditor0",
              "Effect": "Allow",
              "Action": [
                  "s3:PutObject",
                  "kms:GenerateDataKey",
                  "kms:Decrypt",
                  "s3:ListBucket",
                  "s3:DeleteObject"
              ],
              "Resource": [
                  "arn:aws:s3:::S3bucketName*",
                  "arn:aws:kms:us-east-1:112233445566:key/1234a1a1-1m2m-1z2z-d1d2-12dmstt1234"
              ]
          }
      ]
  }
  ```

------

  Im Folgenden sehen Sie eine Beispielvertrauensrichtlinie für diese Rolle.

------
#### [ JSON ]

****  

  ```
  {
   "Version":"2012-10-17",		 	 	 
   "Statement": [
           {
               "Effect": "Allow",
               "Principal": {
                   "Service": [
                       "dms.amazonaws.com"
                   ]
               },
               "Action": "sts:AssumeRole"
          }
      ]
  }
  ```

------
+ `BucketName` – Der Name des S3-Buckets, in dem Time-Travel-Protokolle gespeichert werden sollen. Stellen Sie sicher, dass Sie diesen S3-Bucket erstellen, bevor Sie Time-Travel-Protokolle aktivieren.

  Typ: Zeichenfolge

  Erforderlich: wenn Time Travel aktiviert ist
+ `BucketFolder` – Ein optionaler Parameter zum Festlegen eines Ordnernamens im S3-Bucket. Wenn Sie diesen Parameter angeben, erstellt DMS die Time-Travel-Protokolle im Pfad`"/BucketName/BucketFolder/taskARN/YYYY/MM/DD/hh"`. Wenn Sie diesen Parameter nicht angeben, AWS DMS wird der Standardpfad als erstellt`"/BucketName/dms-time-travel-logs/taskARN/YYYY/MM/DD/hh`.

  Typ: Zeichenfolge

  Erforderlich: Nein
+ `EnableDeletingFromS3OnTaskDelete`— Wenn diese Option auf gesetzt ist`true`, werden die Time Travel-Protokolle aus S3 AWS DMS gelöscht, wenn die Aufgabe gelöscht wird. Der Standardwert ist `false`.

  Typ: Zeichenfolge

  Erforderlich: Nein
+ `EnableRawData` – Wenn diese Option auf `true` gesetzt ist, werden die DML-Rohdaten (DML = Data Manipulation Language) für Time-Travel-Protokolle in der Spalte `raw_data` der Time-Travel-Protokolle angezeigt. Einzelheiten finden Sie unter [Verwenden der Time-Travel-Protokolle](CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.LogSchema.md). Der Standardwert ist `false`. Wenn diese Option auf `false` gesetzt ist, wird nur der DML-Typ erfasst.

  Typ: Zeichenfolge

  Erforderlich: Nein
+ `RawDataFormat`— In den AWS DMS Versionen 3.5.0 und höher `EnableRawData` ist wann auf eingestellt. `true` Diese Eigenschaft gibt ein Format für die Rohdaten der DML in einem Time-Travel-Protokoll an und kann wie folgt angegeben werden:
  + `"TEXT"` – Analysierte, lesbare Spaltennamen und Werte für DML-Ereignisse, die während CDC als `Raw`-Felder erfasst werden.
  + `"HEX"` – Der ursprüngliche Hexadezimalwert für Spaltennamen und Werte, die für DML-Ereignisse während CDC erfasst werden.

  Diese Eigenschaft gilt für Oracle- und Microsoft-SQL-Server-Datenbankquellen.

  Typ: Zeichenfolge

  Erforderlich: Nein
+ `OperationsToLog` – Gibt den Typ der DML-Operationen an, die in Time-Travel-Protokollen protokolliert werden sollen. Sie können einen der folgenden Werte angeben:
  + `"INSERT"`
  + `"UPDATE"`
  + `"DELETE"`
  + `"COMMIT"`
  + `"ROLLBACK"`
  + `"ALL"`

  Der Standardwert ist `"ALL"`.

  Typ: Zeichenfolge

  Erforderlich: Nein
+ `MaxRecordSize` – Gibt die maximale Größe der Time-Travel-Protokolleinträge an, die für jede Zeile protokolliert werden. Verwenden Sie diese Eigenschaft, um das Wachstum der Time-Travel-Protokolle für besonders stark ausgelastete Tabellen zu steuern. Der Standardwert ist 64 KB.

  Typ: Ganzzahl

  Erforderlich: Nein

Weitere Informationen zum Aktivieren und Verwenden von Time-Travel-Protokollen finden Sie in den folgenden Themen.

**Topics**
+ [

# Aktivieren von Time-Travel-Protokollen für eine Aufgabe
](CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.TaskEnabling.md)
+ [

# Verwenden der Time-Travel-Protokolle
](CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.LogSchema.md)
+ [

# Wie oft werden Time AWS DMS Travel-Protokolle auf S3 hochgeladen
](CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.UploadsToS3.md)

# Aktivieren von Time-Travel-Protokollen für eine Aufgabe
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.TaskEnabling"></a>

Sie können Time Travel für eine AWS DMS Aufgabe mithilfe der zuvor beschriebenen Aufgabeneinstellungen aktivieren. Stellen Sie sicher, dass Ihre Replikationsaufgabe gestoppt wurde, bevor Sie Time Travel aktivieren.

**Um Time Travel zu aktivieren, verwenden Sie AWS CLI**

1. Erstellen Sie eine JSON-Datei für die DMS-Aufgabenkonfiguration und fügen Sie einen Abschnitt `TTSettings` hinzu, wie im Folgenden dargestellt. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example).

   ```
    .
    .
    .
       },
   "TTSettings" : {
     "EnableTT" : true,
     "TTS3Settings": {
         "EncryptionMode": "SSE_KMS",
         "ServerSideEncryptionKmsKeyId": "arn:aws:kms:us-west-2:112233445566:key/myKMSKey",
         "ServiceAccessRoleArn": "arn:aws:iam::112233445566:role/dms-tt-s3-access-role",
         "BucketName": "myttbucket",
         "BucketFolder": "myttfolder",
         "EnableDeletingFromS3OnTaskDelete": false
       },
     "TTRecordSettings": {
         "EnableRawData" : true,
         "OperationsToLog": "DELETE,UPDATE",
         "MaxRecordSize": 64
       },
    .
    .
    .
   ```

1. Geben Sie in einer entsprechenden Aufgabenaktion diese JSON-Datei unter Verwendung der Option `--replication-task-settings` an. Im folgenden CLI-Code-Fragment ist diese Time-Travel-Einstellungsdatei beispielsweise als Teil von `create-replication-task` angegeben.

   ```
   aws dms create-replication-task 
   --target-endpoint-arn arn:aws:dms:us-east-1:112233445566:endpoint:ELS5O7YTYV452CAZR2EYBNQGILFHQIFVPWFRQAY \
   --source-endpoint-arn arn:aws:dms:us-east-1:112233445566:endpoint:HNX2BWIIN5ZYFF7F6UFFZVWTDFFSMTNOV2FTXZA \
   --replication-instance-arn arn:aws:dms:us-east-1:112233445566:rep:ERLHG2UA52EEJJKFYNYWRPCG6T7EPUAB5AWBUJQ \
   --migration-type full-load-and-cdc --table-mappings 'file:///FilePath/mappings.json' \
   --replication-task-settings 'file:///FilePath/task-settings-tt-enabled.json' \
   --replication-task-identifier test-task
                               .
                               .
                               .
   ```

   Hier lautet der Name dieser Time-Travel-Einstellungsdatei `task-settings-tt-enabled.json`.

Sie können diese Datei in ähnlicher Weise im Rahmen der Aktion `modify-replication-task` angeben.

Beachten Sie die besondere Behandlung von Time-Travel-Protokollen für die folgenden Aufgabenaktionen:
+ `start-replication-task` – Wenn Sie eine Replikationsaufgabe ausführen und auf einen für Time Travel verwendeten S3-Bucket nicht zugegriffen werden kann, wird die Aufgabe als `FAILED` markiert.
+ `stop-replication-task`— Wenn die Aufgabe beendet wird, werden AWS DMS sofort alle Time Travel-Protokolle, die derzeit für die Replikationsinstanz verfügbar sind, in den für Time Travel verwendeten S3-Bucket übertragen.

Während der Ausführung einer Replikationsaufgabe können Sie den Wert für `EncryptionMode` von `"SSE_KMS"` in `"SSE_S3"` ändern, aber nicht umgekehrt.

Wenn die Größe der Time-Travel-Protokolle für eine laufende Aufgabe 1 GB überschreitet, überträgt DMS die Protokolle innerhalb von fünf Minuten nach Erreichen dieser Größe an S3. Wenn nach der Ausführung einer Aufgabe kein Zugriff auf den S3-Bucket oder den KMS-Schlüssel mehr möglich ist, stoppt DMS die Übertragung von Protokollen in diesen Bucket. Wenn Sie feststellen, dass Ihre Protokolle nicht in Ihren S3-Bucket übertragen werden, überprüfen Sie Ihren S3 und Ihre AWS KMS Berechtigungen. Weitere Informationen darüber, wie oft DMS diese Protokolle an S3 überträgt, finden Sie unter [Wie oft werden Time AWS DMS Travel-Protokolle auf S3 hochgeladen](CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.UploadsToS3.md).

Um Time Travel für eine bestehende Aufgabe von der Konsole aus zu aktivieren, verwenden Sie die JSON-Editor-Option unter **Aufgabeneinstellungen**, um einen Abschnitt `TTSettings` hinzuzufügen.

# Verwenden der Time-Travel-Protokolle
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.LogSchema"></a>

*Time-Travel-Protokolldateien* sind CSV-Dateien mit folgenden Feldern.

```
log_timestamp 
component 
dms_source_code_location 
transaction_id 
event_id 
event_timestamp 
lsn/scn 
primary_key
record_type 
event_type 
schema_name 
table_name 
statement 
action 
result 
raw_data
```

Sobald Ihre Time-Travel-Protokolle in S3 verfügbar sind, können Sie mit Tools wie Amazon Athena direkt darauf zugreifen und sie abfragen. Sie können die Protokolle auch wie jede andere Datei von S3 herunterladen.

Das folgende Beispiel zeigt ein Time-Travel-Protokoll, in dem Transaktionen für eine Tabelle namens `mytable` protokolliert sind. Die Zeilenenden für das folgende Protokoll wurden aus Gründen der besseren Lesbarkeit hinzugefügt.

```
"log_timestamp ","tt_record_type","dms_source_code_location ","transaction_id",
"event_id","event_timestamp","scn_lsn","primary_key","record_type","event_type",
"schema_name","table_name","statement","action","result","raw_data"
"2021-09-23T01:03:00:778230","SOURCE_CAPTURE","postgres_endpoint_wal_engine.c:00819",
"609284109","565612992","2021-09-23 01:03:00.765321+00","00000E9C/D53AB518","","DML",
"UPDATE (3)","dmstest","mytable","","Migrate","","table dmstest.mytable:
UPDATE: id[bigint]:2244937 phone_number[character varying]:'phone-number-482'
age[integer]:82 gender[character]:'f' isactive[character]:'true ' 
date_of_travel[timestamp without time zone]:'2021-09-23 01:03:00.76593' 
description[text]:'TEST DATA TEST DATA TEST DATA TEST DATA'"
```

# Wie oft werden Time AWS DMS Travel-Protokolle auf S3 hochgeladen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.TimeTravel.UploadsToS3"></a>

Um die Speichernutzung Ihrer Replikationsinstanz zu minimieren, laden Sie in AWS DMS regelmäßigen Abständen Time Travel-Protokolle von ihr ab. 

Die Time-Travel-Protokolle werden in folgenden Fällen in Ihren Amazon-S3-Bucket übertragen:
+ Wenn die aktuelle Größe der Protokolle 1 GB überschreitet, werden die Protokolle innerhalb von fünf Minuten auf S3 AWS DMS hochgeladen. Somit AWS DMS können bis zu 12 Anrufe pro Stunde an S3 und AWS KMS für jede laufende Aufgabe getätigt werden.
+ AWS DMS lädt die Protokolle jede Stunde auf S3 hoch, unabhängig von der Größe der Protokolle.
+ Wenn eine Aufgabe gestoppt wird, werden die Zeitreiseprotokolle AWS DMS sofort nach S3 hochgeladen.

# Einstellungen für das Protokollieren von Aufgaben
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.Logging"></a>

Logging verwendet Amazon CloudWatch , um Informationen während des Migrationsprozesses zu protokollieren. Mit den Einstellungen der Protokollierungsaufgabe können Sie angeben, welche Komponentenaktivitäten protokolliert und welche Menge an Informationen in das Protokoll geschrieben wird. Einstellungen für die Protokollierung werden in eine JSON-Datei geschrieben. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example). 

Sie können die CloudWatch Protokollierung auf verschiedene Arten aktivieren. Sie können die `EnableLogging` Option AWS-Managementkonsole bei der Erstellung einer Migrationsaufgabe auswählen. Sie können die `EnableLogging` Option auch auf einstellen, `true` wenn Sie eine Aufgabe mithilfe der AWS DMS API erstellen. Sie können auch `"EnableLogging": true` in JSON im Abschnitt Protokollierung der Aufgabeneinstellungen angeben.

Wenn Sie `EnableLogging` auf festlegen`true`, werden der CloudWatch Gruppenname und der Streamname wie folgt AWS DMS zugewiesen. Sie können diese Werte nicht direkt festlegen.
+ **CloudWatchLogGroup**: `dms-tasks-<REPLICATION_INSTANCE_IDENTIFIER>`
+ **CloudWatchLogStream**: `dms-task-<REPLICATION_TASK_EXTERNAL_RESOURCE_ID>`

`<REPLICATION_INSTANCE_IDENTIFIER>` ist die ID der Replikations-Instance. `<REPLICATION_TASK_EXTERNAL_RESOURCE_ID>` ist der Wert des Abschnitts `<resourcename>` des Aufgaben-ARN. Hinweise dazu, wie Ressourcen AWS DMS generiert werden ARNs, finden Sie unter[Konstruieren eines Amazon-Ressourcennamens (ARN) für AWS DMS](CHAP_Introduction.AWS.ARN.md).

CloudWatch ist in AWS Identity and Access Management (IAM) integriert, und Sie können angeben, welche CloudWatch Aktionen ein Benutzer in Ihrem AWS Konto ausführen kann. Weitere Informationen zur Arbeit mit IAM in CloudWatch finden Sie unter [Identitäts- und Zugriffsmanagement für Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/auth-and-access-control-cw.html) und [Protokollierung von CloudWatch Amazon-API-Aufrufen](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/logging_cw_api_calls.html) im * CloudWatch Amazon-Benutzerhandbuch*.

Zum Löschen der Aufgabenprotokolle können Sie `DeleteTaskLogs` im JSON-Code im Protokollierungsabschnitt der Aufgabeneinstellungen angeben.

Sie können eine Protokollierung für die folgenden Arten von Ereignissen festlegen:
+ `FILE_FACTORY` – Die Datei-Factory verwaltet Dateien, die für die Stapelanwendung und das Stapelladen verwendet werden, und verwaltet Amazon-S3-Endpunkte.
+ `METADATA_MANAGER` – Der Metadatenmanager verwaltet die Quell- und Zielmetadaten, die Partitionierung und den Tabellenstatus während der Replikation.
+ `SORTER` – Der `SORTER` empfängt eingehende Ereignisse aus dem Prozess `SOURCE_CAPTURE`. Die Ereignisse werden in Transaktionen gebündelt und an die `TARGET_APPLY`-Servicekomponente übergeben. Wenn der Prozess `SOURCE_CAPTURE` Ereignisse schneller generiert, als die `TARGET_APPLY`-Komponente sie verarbeiten kann, speichert die `SORTER`-Komponente die zurückgestellten Ereignisse auf der Festplatte oder in einer Auslagerungsdatei zwischen. Zwischengespeicherte Ereignisse sind eine häufige Ursache für mangelnden Speicherplatz in Replikations-Instances.

  Die `SORTER`-Servicekomponente verwaltet zwischengespeicherte Ereignisse, erfasst CDC-Statistiken und meldet die Latenz von Aufgaben.
+ `SOURCE_CAPTURE` – Daten zur fortlaufenden Replikation (CDC) werden aus der Quelldatenbank oder dem Quellservice erfasst und an die SORTER-Servicekomponente weitergegeben.
+ `SOURCE_UNLOAD` – Daten werden beim vollständigen Laden aus der Quelldatenbank oder dem Quellservice entladen.
+ `TABLES_MANAGER` – Der Tabellenmanager verfolgt die erfassten Tabellen, verwaltet die Reihenfolge der Tabellenmigration und erfasst Tabellenstatistiken.
+ `TARGET_APPLY` – Daten und Data Definition Language (DDL)-Anweisungen werden auf die Zieldatenbank angewendet.
+ `TARGET_LOAD` – Daten werden in die Zieldatenbank geladen.
+ `TASK_MANAGER` – Der Task Manager verwaltet laufende Aufgaben und unterteilt Aufgaben in Unteraufgaben für die parallele Datenverarbeitung.
+ `TRANSFORMATION` – Transformationsereignisse im Zusammenhang mit Tabellenzuweisungen. Weitere Informationen finden Sie unter [Verwenden der Tabellenzuweisung zum Angeben von Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TableMapping.md).
+ `VALIDATOR/ VALIDATOR_EXT` – Die Servicekomponente `VALIDATOR` überprüft, ob die Daten korrekt von der Quelle zum Ziel migriert wurden. Weitere Informationen finden Sie unter [Datenvalidierung](CHAP_Validating.md). 
+ `DATA_RESYNC`— Gemeinsamer Bestandteil der Daten-Resync-Funktion, die den Daten-Resynchronisierungsfluss verwaltet. Weitere Informationen finden Sie unter [AWS DMS Resynchronisierung von Daten](CHAP_Validating.DataResync.md).
+ `RESYNC_UNLOAD`— Daten werden während des Resynchronisierungsvorgangs aus der Quelldatenbank oder dem Quelldienst entladen.
+ `RESYNC_APPLY`— DML-Anweisungen (Data Manipulation Language) werden während der Resynchronisierung auf die Zieldatenbank angewendet.

Die folgenden Protokollierungskomponenten generieren eine große Anzahl von Protokollen, wenn der Protokollschweregrad `LOGGER_SEVERITY_DETAILED_DEBUG` verwendet wird:
+ `COMMON`
+ `ADDONS`
+ `DATA_STRUCTURE`
+ `COMMUNICATION`
+ `FILE_TRANSFER`
+ `FILE_FACTORY`

Andere Protokollierungsstufen als `DEFAULT` werden für diese Komponenten bei der Problembehandlung selten benötigt. Es wird nicht empfohlen, die Protokollierungsebene `DEFAULT` für diese Komponenten zu ändern, sofern dies nicht ausdrücklich vom AWS Support gewünscht wird.

Nachdem Sie einen der oben genannten Werte angegeben haben, können Sie die Menge der protokollierten Informationen angeben, wie in der folgenden Liste dargestellt. 

Die Schweregrade sind von der niedrigsten bis zur höchsten Informationsstufe angeordnet. Die höheren Stufen enthalten immer Informationen von den niedrigeren Stufen. 
+ LOGGER\$1SEVERITY\$1ERROR – Fehlermeldungen werden in das Protokoll geschrieben.
+ LOGGER\$1SEVERITY\$1WARNING – Warnungen und Fehlermeldungen werden in das Protokoll geschrieben.
+ LOGGER\$1SEVERITY\$1INFO – Informationsmeldungen, Warnungen und Fehlermeldungen werden in das Protokoll geschrieben.
+ LOGGER\$1SEVERITY\$1DEFAULT – Informationsmeldungen, Warnungen und Fehlermeldungen werden in das Protokoll geschrieben.
+ LOGGER\$1SEVERITY\$1DEBUG – Debug-Nachrichten, Informationsmeldungen, Warnungen und Fehlermeldungen werden in das Protokoll geschrieben.
+ LOGGER\$1SEVERITY\$1DETAILED\$1DEBUG – Alle Informationen werden in das Protokoll geschrieben.

Das folgende JSON-Beispiel zeigt Aufgabeneinstellungen für die Protokollierung aller Aktionen und Schweregrade.

```
…
  "Logging": {
    "EnableLogging": true,
    "LogComponents": [
      {
        "Id": "FILE_FACTORY",
        "Severity": "LOGGER_SEVERITY_DEFAULT"
      },{
        "Id": "METADATA_MANAGER",
        "Severity": "LOGGER_SEVERITY_DEFAULT"
      },{
        "Id": "SORTER",
        "Severity": "LOGGER_SEVERITY_DEFAULT"
      },{
        "Id": "SOURCE_CAPTURE",
        "Severity": "LOGGER_SEVERITY_DEFAULT"
      },{
        "Id": "SOURCE_UNLOAD",
        "Severity": "LOGGER_SEVERITY_DEFAULT"
      },{
        "Id": "TABLES_MANAGER",
        "Severity": "LOGGER_SEVERITY_DEFAULT"
      },{
        "Id": "TARGET_APPLY",
        "Severity": "LOGGER_SEVERITY_DEFAULT"
      },{
        "Id": "TARGET_LOAD",
        "Severity": "LOGGER_SEVERITY_INFO"
      },{
        "Id": "TASK_MANAGER",
        "Severity": "LOGGER_SEVERITY_DEBUG"
      },{
        "Id": "TRANSFORMATION",
        "Severity": "LOGGER_SEVERITY_DEBUG"
      },{
        "Id": "VALIDATOR",
        "Severity": "LOGGER_SEVERITY_DEFAULT"
      }
    ],
    "CloudWatchLogGroup": null,
    "CloudWatchLogStream": null
  }, 
…
```

# Kontrolltabellen-Aufgabeneinstellungen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.ControlTable"></a>

Steuertabellen enthalten Informationen zu einer AWS DMS Aufgabe. Sie bieten auch nützliche Statistiken, mit denen Sie sowohl die aktuelle Migrationsaufgabe als auch zukünftige Aufgaben planen und verwalten können. Sie können diese Aufgabeneinstellungen in einer JSON-Datei anwenden oder indem Sie in der AWS DMS Konsole auf der Seite „**Aufgabe erstellen**“ die Option **Erweiterte Einstellungen** auswählen. Die Tabelle „Ausnahmen anwenden“ (`dmslogs.awsdms_apply_exceptions`) wird immer in Datenbankzielen erstellt. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example). 

AWS DMS erstellt Steuertabellen nur bei Aufgaben mit Volllast und CDC oder nur CDC und nicht bei Aufgaben vom Typ Nur Volllast. 

Für Aufgaben mit vollständigem Laden und CDC (Migration vorhandener Daten und Replikation fortlaufender Änderungen) und für reine CDC-Aufgaben (nur Replikation von Datenänderungen) können Sie auch zusätzliche Tabellen erstellen, beispielsweise folgende:
+ **Replikationsstatus (dmslogs.awsdms\$1status)** – Diese Tabelle enthält Details zur aktuellen Aufgabe. Dazu gehören der Aufgabenstatus, die Größe des von der Aufgabe genutzten Speichers und die Anzahl an Änderungen, die noch nicht auf das Ziel angewendet wurden. Diese Tabelle gibt auch die Position in der Quelldatenbank an, an der gerade gelesen AWS DMS wird. Außerdem gibt sie an, ob sich die Aufgabe in der Phase des vollständigen Ladens oder der Change Data Capture (CDC) befindet.
+ **Ausgesetzte Tabellen (dmslogs.awsdms\$1suspended\$1tables)** – Diese Tabelle enthält eine Liste der ausgesetzten Tabellen sowie Angaben dazu, warum die Tabellen ausgesetzt wurden.
+ **Replikationsverlauf (dmslogs.awsdms\$1history)** – Diese Tabelle enthält Informationen zum Replikationsverlauf. Diese Informationen enthalten die Anzahl und das Volumen der während der Aufgabe verarbeiteten Datensätze, die Latenz am Ende einer CDC-Aufgabe und andere Statistiken.

Die Tabelle "Apply Exceptions (Ausnahmen anwenden)" (`dmslogs.awsdms_apply_exceptions`) enthält die folgenden Parameter.


| Spalte | Typ | Description | 
| --- | --- | --- | 
|  TASK\$1NAME  |  nvchar  |  Die Ressourcen-ID der AWS DMS Aufgabe. Die Ressourcen-ID ist im Aufgaben-ARN zu finden.  | 
|  TABLE\$1OWNER  |  nvchar  |  Der Eigentümer der Tabelle.  | 
|  TABLE\$1NAME  |  nvchar  |  Der Name der Tabelle.  | 
|  ERROR\$1TIME  |  Zeitstempel  |  Die Uhrzeit, zu der die Ausnahme (Fehler) auftrat.  | 
|  STATEMENT  |  nvchar  |  Die Anweisung, die ausgeführt wurde, als der Fehler auftrat.  | 
|  ERROR  |  nvchar  |  Name und Beschreibung des Fehlers.  | 

Die Tabelle „Replication Status (Replikationsstatus)“ (`dmslogs.awsdms_status`) enthält den aktuellen Status der Aufgabe und der Zieldatenbank. Sie hat die folgenden Einstellungen.


| Spalte | Typ | Description | 
| --- | --- | --- | 
|  SERVER\$1NAME  |  nvchar  |  Der Name des Rechners, auf dem die Replikationsaufgabe ausgeführt wird.  | 
|  TASK\$1NAME  |  nvchar  |  Die Ressourcen-ID der AWS DMS Aufgabe. Die Ressourcen-ID ist im Aufgaben-ARN zu finden.  | 
|  TASK\$1STATUS  |  varchar  |  Einer der folgenden Werte: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.ControlTable.html) Aufgabenstatus ist auf FULL LOAD eingestellt, solange mindestens eine Tabelle vollständig geladen wird. Nachdem alle Tabellen geladen wurden, ändert sich der Aufgabenstatus zu CHANGE PROCESSING, wenn CDC aktiviert ist. Die Aufgabe ist auf NICHT AUSGEFÜHRT gesetzt, bevor Sie die Aufgabe starten oder nachdem die Aufgabe abgeschlossen ist.  | 
| STATUS\$1TIME |  Zeitstempel  |  Der Zeitstempel des Aufgabenstatus.  | 
|  PENDING\$1CHANGES  |  int  |  Die Anzahl der Änderungsdatensätze, die in der Quelldatenbank festgeschrieben und im Arbeitsspeicher und auf der Festplatte Ihrer Replikations-Instance zwischengespeichert wurden.  | 
|  DISK\$1SWAP\$1SIZE  |  int  |  Der Speicherplatz, der für alte oder ausgelagerte Transaktionen verwendet wird.  | 
| TASK\$1MEMORY |  int  |  Aktuell verwendeter Speicher in MB.  | 
|  SOURCE\$1CURRENT \$1POSITION  |  varchar  |  Die Position in der Quelldatenbank, aus AWS DMS der gerade gelesen wird.  | 
|  SOURCE\$1CURRENT \$1TIMESTAMP  |  Zeitstempel  |  Der Zeitstempel in der Quelldatenbank, aus der gerade gelesen AWS DMS wird.  | 
|  SOURCE\$1TAIL \$1POSITION  |  varchar  |  Die Position der ältesten Starttransaktion, die nicht ausgeführt wurde. Dieser Wert ist die neueste Position, die Sie wieder einstellen können, ohne Änderungen zu verlieren.  | 
|  SOURCE\$1TAIL \$1TIMESTAMP  |  Zeitstempel  |  Der Zeitstempel der ältesten Starttransaktion, die nicht ausgeführt wurde. Dieser Wert ist der neueste Zeitstempel, den Sie wieder einstellen können, ohne Änderungen zu verlieren.  | 
|  SOURCE\$1TIMESTAMP \$1APPLIED  |  Zeitstempel  |  Der Zeitstempel des letzten Transaktions-Commits. In einem Prozess der Massenanwendung ist dieser Wert der Zeitstempel für den Commit der letzten Transaktion im Stapel.  | 

Die Tabelle „Ausgesetzte Tabellen“ (`dmslogs.awsdms_suspended_tables`) enthält die folgenden Parameter.


| Spalte | Typ | Description | 
| --- | --- | --- | 
|  SERVER\$1NAME  |  nvchar  |  Der Name des Rechners, auf dem die Replikationsaufgabe ausgeführt wird.  | 
|  TASK\$1NAME  |  nvchar  |  Der Name der Aufgabe AWS DMS   | 
|  TABLE\$1OWNER  |  nvchar  |  Der Eigentümer der Tabelle.  | 
|  TABLE\$1NAME  |  nvchar  |  Der Name der Tabelle.  | 
|  SUSPEND\$1REASON  |  nvchar  |  Der Grund für die Aussetzung.  | 
|  SUSPEND\$1TIMESTAMP  |  Zeitstempel  |  Der Zeitpunkt, zu dem die Aussetzung erfolgt ist.  | 

Die Tabelle "Replication History (Replikationsverlauf)" (`dmslogs.awsdms_history`) enthält die folgenden Parameter.


| Spalte | Typ | Description | 
| --- | --- | --- | 
|  SERVER\$1NAME  |  nvchar  |  Der Name des Rechners, auf dem die Replikationsaufgabe ausgeführt wird.  | 
|  TASK\$1NAME  |  nvchar  |  Die Ressourcen-ID der AWS DMS Aufgabe. Die Ressourcen-ID ist im Aufgaben-ARN zu finden.  | 
|  TIMESLOT\$1TYPE  |  varchar  |  Einer der folgenden Werte: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.ControlTable.html) Wenn die Aufgabe sowohl Full Load als auch CDC ausführt, werden zwei Verlaufsdatensätze in das Zeitfenster geschrieben.  | 
| TIMESLOT |  Zeitstempel  |  Der letzte Zeitstempel des Zeitfensters.  | 
|  TIMESLOT\$1DURATION  |  int  |  Die Dauer des Zeitfensters in Minuten.  | 
|  TIMESLOT\$1LATENCY  |  int  |  Die Ziellatenz am Ende des Zeitfensters in Sekunden. Dieser Wert gilt nur für CDC-Zeitslots.  | 
| RECORDS |  int  |  Die Anzahl der während des Zeitfensters verarbeiteten Datensätze.  | 
|  TIMESLOT\$1VOLUME  |  int  |  Das verarbeitete Datenvolumen in MB.  | 

Die Tabelle mit den Validierungsfehlern (`awsdms_validation_failures_v1`) enthält alle Fehler bei der Datenvalidierung für eine Aufgabe. Weitere Informationen finden Sie unter [Behebung von Datenvalidierungsfehlern](CHAP_Validating.md#CHAP_Validating.Troubleshooting).

Weitere Einstellungen der Kontrolltabelle sind Folgende:
+ `HistoryTimeslotInMinutes` – Verwenden Sie diese Option, um die Länge der einzelnen Zeitfenster in der Replikationsverlaufstabelle anzugeben. Der Standardwert ist 5 Minuten.
+ `ControlSchema`— Verwenden Sie diese Option, um den Namen des Datenbankschemas für die Steuertabellen für das AWS DMS Ziel anzugeben. Wenn Sie für diese Option keine Informationen eingeben, werden die Tabellen wie folgt an den Standardspeicherort in der Datenbank kopiert: 
  + PostgreSQL, öffentlich
  + Oracle, das Zielschema
  + Microsoft SQL Server, dbo in der Zieldatenbank
  + MySQL, awsdms\$1control
  + MariaDB, awsdms\$1control
  + Amazon Redshift, öffentlich
  + DynamoDB, erstellt als einzelne Tabellen in der Datenbank
  + IBM Db2 LUW, awsdms\$1control

# Stream-Puffer-Aufgabeneinstellungen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.StreamBuffer"></a>

Sie können Stream-Puffereinstellungen mithilfe von festlegen AWS CLI, einschließlich der folgenden. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example). 
+ `StreamBufferCount` – Mit dieser Option können Sie die Anzahl der Datenstrompuffer für die Migrationsaufgabe angeben. Die Standardanzahl für Stream-Puffer ist 3. Ein höherer Wert dieser Einstellung könnte das Extrahieren der Daten beschleunigen. Allerdings ist diese Leistungssteigerung in hohem Maße abhängig von der Umgebung der Migration, einschließlich dem Quellsystem und der Instance-Klasse des Replikationsservers. Der Standardwert ist für die meisten Situationen ausreichend.
+ `StreamBufferSizeInMB` – Verwenden Sie diese Option, um die maximale Größe jedes Datenstrompuffers anzugeben. Die Standardgröße ist 8 MB. Möglicherweise müssen Sie den Wert für diese Option erhöhen, wenn Sie mit sehr großen Werten arbeiten LOBs. Sie müssen möglicherweise den Wert auch dann erhöhen, wenn Sie eine Meldung in den Protokolldateien erhalten, dass die Größe des Stream-Puffers nicht ausreicht. Zur Berechnung der Größe dieser Option können Sie folgende Formel verwenden:` [Max LOB size (or LOB chunk size)]*[number of LOB columns]*[number of stream buffers]*[number of tables loading in parallel per task(MaxFullLoadSubTasks)]*3`
+ `CtrlStreamBufferSizeInMB` – Verwenden Sie diese Option, um die Größe des Kontroll-Stream-Puffers festzulegen. Der Wert wird in Megabyte angegeben und kann zwischen 1 und 8 liegen. Der Standardwert ist 5. Möglicherweise müssen Sie den Wert für diese Option erhöhen, wenn Sie mit einer sehr großen Anzahl Tabellen arbeiten, etwa Zehntausende von Tabellen.

# Einstellungen für die Optimierung der Verarbeitung von Änderungen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.ChangeProcessingTuning"></a>

Die folgenden Einstellungen bestimmen, wie Änderungen an Zieltabellen während der Change Data Capture (CDC) AWS DMS behandelt werden. Mehrere dieser Einstellungen sind abhängig vom Wert des Ziel-Metadatenparameters `BatchApplyEnabled`. Weitere Informationen zum Parameter `BatchApplyEnabled` erhalten Sie unter [Ziel-Metadaten-Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.TargetMetadata.md). Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example).

Zu den Einstellungen für die Optimierung der Verarbeitung von Änderungen zählen die Folgenden:

Die folgenden Einstellungen gelten nur, wenn der Ziel-Metadatenparameter `BatchApplyEnabled` auf `true` festgelegt ist.
+ `BatchApplyPreserveTransaction` – Wenn `true` festgelegt ist, wird die Transaktionsintegrität bewahrt und ein Stapel enthält garantiert alle Änderungen innerhalb einer Transaktion von der Quelle. Der Standardwert ist `true`. Diese Einstellung gilt nur für Oracle-Zielendpunkte.

  Wenn auf `false` festgelegt, kann es zu temporären Ausfällen bei der Transaktionsintegrität kommen, um die Leistung zu verbessern. Es gibt keine Garantie, dass alle Änderungen innerhalb einer Transaktion von der Quelle in einem einzigen Stapel auf das Ziel angewendet werden. 

  Standardmäßig werden Änderungen in einem Transaktionsmodus AWS DMS verarbeitet, wodurch die Transaktionsintegrität gewahrt wird. Wenn Sie sich temporäre Ausfälle bei der Transaktionsintegrität leisten können, können Sie stattdessen die Option batch optimized apply verwenden. Bei dieser Option werden Transaktionen auf effiziente Weise gruppiert und in Stapeln angewendet, um die Effizienz zu erhöhen. Die Verwendung der batch-optimierten Apply-Option verstößt fast immer gegen Einschränkungen der referenziellen Integrität. Wir empfehlen daher, diese Einschränkungen während des Migrationsprozesses zu deaktivieren und im Rahmen des Cutover-Prozesses wieder zu aktivieren. 
+ `BatchApplyTimeoutMin`— Legt die Mindestdauer in Sekunden fest, die zwischen jeder Anwendung von AWS DMS Batch-Änderungen vergeht. Der Standardwert ist 1.
+ `BatchApplyTimeoutMax`— Legt die maximale AWS DMS Wartezeit in Sekunden zwischen den einzelnen Anwendungen von Batchänderungen fest, bevor ein Timeout eintritt. Der Standardwert lautet 30.
+ `BatchApplyMemoryLimit` – Legt die maximale Speichermenge (in MB) für die Vorverarbeitung im **Batch-optimized-Apply-Modus** fest. Der Standardwert lautet 500.
+ `BatchSplitSize` – Legt die maximale Anzahl der Änderungen fest, die in einem einzigen Stapel angewendet werden. Der Standardwert 0 bedeutet, dass kein Grenzwert angewendet wird.

Die folgenden Einstellungen gelten nur, wenn der Ziel-Metadatenparameter `BatchApplyEnabled` auf `false` festgelegt ist.
+ `MinTransactionSize` – Legt die minimale Anzahl der in jede Transaktion einzubeziehenden Änderungen fest. Der Standardwert lautet 1000.
+ `CommitTimeout`— Legt die maximale Zeit in Sekunden fest, um Transaktionen stapelweise AWS DMS zu sammeln, bevor ein Timeout deklariert wird. Der Standardwert ist 1.

Bei der bidirektionalen Replikation gilt die folgende Einstellung nur, wenn der Ziel-Metadatenparameter `BatchApplyEnabled` auf `false` gesetzt ist.
+ `LoopbackPreventionSettings` – Diese Einstellungen bieten für jede fortlaufende Replikationsaufgabe bei jedem Aufgabenpaar, das an einer bidirektionalen Replikation beteiligt ist, eine Verhinderung von Loopbacks. Mit der *Loopback-Verhinderung* wird unterbunden, dass identische Änderungen in beiden Richtungen der bidirektionalen Replikation angewendet werden, wodurch Daten fehlerhaft werden können. Weitere Hinweise zur bidirektionalen Replikation finden Sie unter [Durchführen der bidirektionalen Replikation](CHAP_Task.CDC.md#CHAP_Task.CDC.Bidirectional).

AWS DMS versucht, Transaktionsdaten im Speicher zu belassen, bis die Transaktion vollständig an die Quelle, das Ziel oder beide übergeben wurde. Allerdings werden Transaktionen, die größer sind als der zugewiesene Speicher oder die innerhalb des festgelegten Zeitraums nicht gespeichert wurden, auf die Festplatte geschrieben.

Die folgenden Einstellungen gelten für die Optimierung der Verarbeitung von Änderungen unabhängig von dem Modus der Änderungsverarbeitung.
+ `MemoryLimitTotal` – Legt die maximale Größe (in MB) fest, die alle Transaktionen im Arbeitsspeicher belegen können, bevor sie auf die Festplatte geschrieben werden. Der Standardwert lautet 1024.
+ `MemoryKeepTime` – Legt die maximale Zeit in Sekunden fest, die jede Transaktion im Arbeitsspeicher bleiben kann, bevor sie auf die Festplatte geschrieben wird. Die Dauer wird ab dem Zeitpunkt berechnet, zu dem mit der Erfassung der Transaktion AWS DMS begonnen wurde. Der Standardwert lautet 60. 
+ `StatementCacheSize` – Legt die maximale Anzahl der vorbereiteten Anweisungen fest, die auf dem Server gespeichert werden, um später ausgeführt zu werden, wenn Änderungen auf das Ziel angewendet werden. Der Standardwert ist 50 und der Höchstwert ist 200.
+ `RecoveryTimeout`— RecoveryTimeout Steuert bei der Wiederaufnahme einer Aufgabe im CDC-Modus, wie lange (in Minuten) die Aufgabe auf den Wiederaufnahme-Checkpoint wartet. Wenn der Checkpoint nicht innerhalb des konfigurierten Zeitrahmens erreicht wird, schlägt die Aufgabe fehl. Das Standardverhalten besteht darin, unbegrenzt auf das Checkpoint-Ereignis zu warten.

Beispiel dafür, wie Aufgabeneinstellungen, die das Change Processing Tuning behandeln, in einer JSON-Datei mit Aufgabeneinstellungen angezeigt werden:

```
"ChangeProcessingTuning": {
        "BatchApplyPreserveTransaction": true,
        "BatchApplyTimeoutMin": 1,
        "BatchApplyTimeoutMax": 30,
        "BatchApplyMemoryLimit": 500,
        "BatchSplitSize": 0,
        "MinTransactionSize": 1000,
        "CommitTimeout": 1,
        "MemoryLimitTotal": 1024,
        "MemoryKeepTime": 60,
        "StatementCacheSize": 50
        "RecoveryTimeout": -1
}
```

Um die Häufigkeit von Schreibvorgängen auf ein Amazon-S3-Ziel während einer Datenreplikationsaufgabe zu steuern, können Sie die zusätzlichen Verbindungsattribute `cdcMaxBatchInterval` und `cdcMinFileSize` konfigurieren. Dies kann zu einer besseren Leistung bei der Analyse der Daten ohne zusätzliche überflüssige Aufgaben führen. Weitere Informationen finden Sie unter [Endpunkteinstellungen bei Verwendung von Amazon S3 als Ziel für AWS DMS](CHAP_Target.S3.md#CHAP_Target.S3.Configuring).

# Aufgabeneinstellungen zur Datenvalidierung
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.DataValidation"></a>

Sie können sicherstellen, dass Ihre Daten korrekt von der Quelle zum Ziel migriert wurden. Wenn Sie die Validierung für eine Aufgabe aktivieren, AWS DMS beginnt der Vergleich der Quell- und Zieldaten unmittelbar nach dem vollständigen Laden einer Tabelle. Weitere Informationen zur Aufgabendatenvalidierung, deren Anforderungen, den Umfang des Datenbank-Supports und die gemeldeten Metriken finden Sie unter [AWS DMS-Datenvalidierung](CHAP_Validating.md). Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example).

 Zu den Datenvalidierungseinstellungen und deren Werten gehören:
+ `EnableValidation` – Aktiviert die Datenvalidierung bei Einstellung von „true“. Andernfalls wird die Validierung für die Aufgabe deaktiviert. Der Standardwert ist "false".
+ `ValidationMode`— steuert, wie AWS DMS Daten in der Zieltabelle anhand der Quelltabelle validiert werden. Ab Version 3.5.4 der Replication Engine setzt DMS dies automatisch auf die unterstützten Migrationspfade, was `GROUP_LEVEL` für eine verbesserte Validierungsleistung und eine deutlich schnellere Verarbeitung großer Datenmengen sorgt. [Diese Verbesserung gilt für Migrationen für die Migrationspfade, die in Data Resync aufgeführt sind.AWS DMS](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.DataResync.html#CHAP_DataResync.limitations) Für alle anderen Migrationspfade ist der Validierungsmodus standardmäßig auf. `ROW_LEVEL` 
**Anmerkung**  
Unabhängig von der Einstellung werden alle über die Tabellenüberprüfung konfigurierten Zeilen AWS DMS validiert.
+ `FailureMaxCount` – Gibt die maximale Anzahl der Datensätze an, bei denen die Validierung fehlschlagen kann, bevor die Validierung für die Aufgabe ausgesetzt wird. Der Standardwert lautet 10.000. Wenn Sie möchten, dass die Validierung unabhängig von der Anzahl der Datensätze, bei denen die Validierung fehlgeschlagen ist, fortgesetzt wird, setzen Sie diesen Wert höher als die Anzahl der Datensätze in der Quelle.
+ `HandleCollationDiff`— Wenn diese Option auf gesetzt ist`true`, berücksichtigt die Validierung Unterschiede in der Spaltensortierung zwischen Quell- und Zieldatenbanken. Andernfalls werden jegliche Unterschiede bei der Spaltensortierung für die Validierung ignoriert. Die Spaltensortierung kann die Reihenfolge der Zeilen bestimmen, was für die Datenvalidierung wichtig ist. Das Festlegen von `HandleCollationDiff` auf "true" behebt diese Sortierungsunterschiede automatisch und verhindert Fehlalarme bei der Datenvalidierung. Der Standardwert ist `false`.
+ `RecordFailureDelayInMinutes` – Gibt die Verzögerung in Minuten an, bevor Informationen über das Fehlschlagen der Validierung gemeldet werden.

  Wenn die Gesamtlatenz der DMS-Aufgabe die CDC-Latenz übersteigt, hat `RecordFailureDelayInMinutesthen` sie Vorrang, z. B. wenn sie 5 `RecordFailureDelayInMinutes` ist und die CDC-Latenz 7 Minuten beträgt, wartet DMS 7 Minuten, um die Einzelheiten des Validierungsfehlers zu melden.
+ `RecordFailureDelayLimitInMinutes`— Gibt die Verzögerung an, bis Details zu einem Validierungsfehler gemeldet werden. AWS DMS verwendet die Task-Latenz, um die tatsächliche Verzögerung von Änderungen zu erkennen, damit sie das Ziel erreichen, um Fehlalarme zu vermeiden. Diese Einstellung überschreibt die tatsächliche Verzögerung und den CDC-Latenzwert für DMS-Aufgaben und ermöglicht es Ihnen, eine größere Verzögerung festzulegen, bevor Sie Validierungsmetriken melden. Der Standardwert lautet 0.
+ `RecordSuspendDelayInMinutes` – Gibt die Wartezeit in Minuten an, bevor die Validierung von Tabellen aufgrund des in `FailureMaxCount` festgelegten Fehlerschwellenwerts ausgesetzt wird.
+ `SkipLobColumns`— Wenn diese Option auf gesetzt ist`true`, wird die Datenvalidierung für alle LOB-Spalten im Tabellenteil der Aufgabenvalidierung AWS DMS übersprungen. Der Standardwert ist `false`.
+ `TableFailureMaxCount` – Gibt die maximale Anzahl der Zeilen in einer Tabelle an, bei denen die Validierung fehlschlagen kann, bevor sie für die Tabelle ausgesetzt wird. Der Standardwert lautet 1.000. 
+ `ThreadCount`— Gibt die Anzahl der Ausführungs-Threads an, die bei der Validierung AWS DMS verwendet werden. Jeder Thread wählt not-yet-validated Daten aus der Quelle und dem Ziel aus, um sie zu vergleichen und zu validieren. Der Standardwert ist 5. Wenn Sie eine `ThreadCount` höhere Zahl angeben, AWS DMS kann die Validierung schneller abgeschlossen werden. Allerdings führt AWS DMS dann auch mehr simultane Abfragen aus, sodass bei Quelle und Ziel mehr Ressourcen verbraucht werden.
+ `ValidationOnly` – Wenn diese Option auf `true` gesetzt ist, führt die Aufgabe eine Datenvalidierung durch, ohne eine Migration oder Replikation von Daten vorzunehmen. Der Standardwert ist `false`. Sie können die Einstellung `ValidationOnly` nicht ändern, nachdem die Aufgabe erstellt wurde.

  Sie müssen **TargetTablePrepMode**auf `DO_NOTHING` (die Standardeinstellung für reine Validierungsaufgaben) und den **Migrationstyp** auf einen der folgenden Werte festlegen:
  + Volllast — Stellen Sie den **Migrationstyp** der Aufgabe in der AWS DMS Konsole auf **Vorhandene Daten migrieren** ein. Oder legen Sie in der AWS DMS API den Migrationstyp auf FULL-LOAD fest.
  + CDC – Legen Sie für **Migrationstyp** in der AWS DMS -Konsole **Nur Replizieren von Datenänderungen** fest. Oder legen Sie in der AWS DMS API den Migrationstyp auf CDC fest.

  Unabhängig vom ausgewählten Migrationstyp werden Daten während einer reinen Validierungsaufgabe nicht wirklich migriert oder repliziert.

  Weitere Informationen finden Sie unter [Reine Validierungsaufgaben](CHAP_Validating.md#CHAP_Validating.ValidationOnly).
**Wichtig**  
Die Einstellung `ValidationOnly` ist unveränderlich. Nach dem Erstellen einer Aufgabe kann sie für diese Aufgabe nicht mehr geändert werden.
+ `ValidationPartialLobSize` – Gibt an, ob Sie eine teilweise Validierung für LOB-Spalten durchführen möchten, anstatt alle in der Spalte gespeicherten Daten zu validieren. Dies ist möglicherweise nützlich, wenn Sie nur einen Teil der LOB-Daten und nicht den gesamten LOB-Datensatz migrieren. Der Wert wird in KB-Einheiten angegeben. Der Standardwert ist 0. Dies bedeutet, dass AWS DMS alle LOB-Spaltendaten validiert. `"ValidationPartialLobSize": 32`Bedeutet beispielsweise, dass AWS DMS nur die ersten 32 KB der Spaltendaten sowohl in der Quelle als auch im Ziel validiert werden.
+ `PartitionSize` – Gibt die Stapelgröße der Datensätze an, die für den Vergleich aus der Quelle und dem Ziel gelesen werden sollen. Der Standardwert ist 10 000.
+ `ValidationQueryCdcDelaySeconds` – Die Zeitspanne, um die sich die erste Validierungsabfrage bei jeder CDC-Aktualisierung sowohl an der Quelle als auch am Ziel verzögert. Bei einer hohen Migrationslatenz kann diese Einstellung dazu beitragen, Ressourcenkonflikte zu reduzieren. Bei einer reinen Validierungsaufgabe werden für diese Option automatisch 180 Sekunden festgelegt. Der Standardwert ist 0.

Beispielsweise kann mit der folgenden JSON die Datenvalidierung mit der doppelten Standard-Anzahl an Threads ausgeführt werden. Außerdem kommt dies für die Unterschiede in der Reihenfolge von Datensätzen auf, die durch Unterschiede bei der Spaltensortierung in PostgreSQL-Endpunkten bedingt wurden. Auch wird eine Validierungs-Berichtverzögerung bereitgestellt, um für zusätzliche Zeit aufzukommen, die benötigt wird, um Validierungsfehler zu verarbeiten.

```
"ValidationSettings": {
     "EnableValidation": true,
     "ThreadCount": 10,
     "HandleCollationDiff": true,
     "RecordFailureDelayLimitInMinutes": 30
  }
```

**Anmerkung**  
 AWS DMS Verwendet für einen Oracle-Endpunkt DBMS\$1CRYPTO zur Validierung. BLOBs Wenn Ihr Oracle-Endpunkt verwendet BLOBs, erteilen Sie dem Benutzerkonto, das auf den Oracle-Endpunkt zugreift, die `execute` Berechtigung für DBMS\$1CRYPTO. Führen Sie dazu die folgende Anweisung aus.  

```
grant execute on sys.dbms_crypto to dms_endpoint_user;
```

# Einstellungen für die Resynchronisierung von Daten
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.DataResyncSettings"></a>

Mit der Funktion zum erneuten Synchronisieren von Daten können Sie die Zieldatenbank auf der Grundlage eines Datenvalidierungsberichts erneut mit Ihrer Quelldatenbank synchronisieren. Weitere Informationen finden Sie unter [AWS DMS Datenvalidierung](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Validating.html).

Sie können zusätzliche Parameter für `ResyncSettings` den `ReplicationTaskSettings` Endpunkt hinzufügen, der den Resynchronisierungsprozess konfiguriert. Weitere Informationen finden Sie unter [Beispiel für Aufgabeneinstellungen im Abschnitt](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.html#CHAP_Tasks.CustomizingTasks.TaskSettings.Example) [Angeben von Aufgabeneinstellungen für AWS Database Migration Service](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.html) Aufgaben.

**Anmerkung**  
`ResyncSchedule`und `MaxResyncTime` Parameter sind erforderlich, wenn der Resynchronisierungsprozess aktiviert ist und die Aufgabe über eine CDC-Komponente verfügt. Sie sind nicht für Aufgaben gültig, die nur bei Volllast ausgeführt werden.

Die Einstellungen und Werte des Parameters für die Resynchronisierung von Daten lauten wie folgt:

`EnableResync`  
Aktiviert die Funktion zum erneuten Synchronisieren von Daten, wenn diese Option auf eingestellt ist. `true` Standardmäßig ist die Neusynchronisierung von Daten deaktiviert.  
**Datentyp**: Boolean  
**Required**: No  
**Standardwert**: `false`  
**Validierung**: Sollte nicht Null sein, wenn der `ResyncSettings` Parameter in vorhanden ist. `TaskSettings`

`ResyncSchedule`  
Zeitfenster, in dem die Funktion zum erneuten Synchronisieren von Daten in Kraft treten soll. Muss im Cron-Format vorliegen. Weitere Informationen finden Sie unter [Regeln für Cron-Ausdrücke](CHAP_Validating.DataResync.md#CHAP_DataResync.cron).  
**Datentyp**: Zeichenfolge  
**Required**: No  
**Validierung:**   
+ Muss im Cron-Ausdrucksformat vorhanden sein.
+ Sollte nicht Null sein für Aufgaben mit CDC, für die die Einstellung auf `EnableResync` festgelegt ist. `true`
+ Kann nicht für Aufgaben ohne CDC-Komponente festgelegt werden.

`MaxResyncTime`  
Maximaler Zeitraum in Minuten, bis die Funktion zum erneuten Synchronisieren von Daten in Kraft treten muss.  
**Datentyp**: Ganzzahl  
**Required**: No  
**Validierung:**   
+ Sollte für Aufgaben mit CDC nicht Null sein.
+ Nicht erforderlich für Aufgaben ohne CDC.
+ Mindestwert:`5 minutes`, Höchstwert: `14400 minutes` (10 Tage).

`Validation onlyTaskID`  
Eindeutige ID der Validierungsaufgabe. Die Aufgaben-ID nur für die Validierung wird am Ende eines ARN angehängt. Beispiel:  
+ ARN für reine Validierungsaufgabe: `arn:aws:dms:us-west-2:123456789012:task:6DG4CLGJ5JSJR67CFD7UDXFY7KV6CYGRICL6KWI`
+ Nur Validierung, Aufgaben-ID: `6DG4CLGJ5JSJR67CFD7UDXFY7KV6CYGRICL6KWI`
**Datentyp**: Zeichenfolge  
**Required**: No  
**Validierung**: Sollte für Aufgaben mit aktivierter Funktion zur erneuten Datensynchronisierung und deaktivierter Überprüfung nicht Null sein.  
Beispiel:  

```
"ResyncSettings": {
    "EnableResync": true,
    "ResyncSchedule": "30 9 ? * MON-FRI", 
    "MaxResyncTime": 400,  
    "ValidationTaskId": "JXPP94804DJOEWIJD9348R3049"
},
```

# Aufgabeneinstellungen für den Umgang mit der DDL-Änderungsverarbeitung
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.DDLHandling"></a>



Die folgenden Einstellungen bestimmen, wie Änderungen der Datendefinitionssprache (DDL) für Zieltabellen während der Change Data Capture (CDC) AWS DMS behandelt werden. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example). 

Zu den Aufgabeneinstellungen zur Handhabung der Änderungsverarbeitungs-DDL gehören folgende:
+ `HandleSourceTableDropped –` Legen Sie diese Option auf `true` fest, um die Zieltabelle zu löschen, wenn die Quelltabelle gelöscht wird.
+ `HandleSourceTableTruncated` – Setzen Sie diese Option auf `true`, um die Zieltabelle zu kürzen, wenn die Quelltabelle gekürzt wird.
+ `HandleSourceTableAltered` – Setzen Sie diese Option auf `true`, um die Zieltabelle zu ändern, wenn die Quelltabelle geändert wird.

Es folgt ein Beispiel dafür, wie Aufgabeneinstellungen, die Änderungsverarbeitungs-DDL verarbeiten, in einer JSON-Datei für die Aufgabeneinstellung angezeigt werden:

```
                "ChangeProcessingDdlHandlingPolicy": {
                   "HandleSourceTableDropped": true,
                   "HandleSourceTableTruncated": true,
                   "HandleSourceTableAltered": true
                },
```

**Anmerkung**  
Weitere Informationen dazu, welche DDL-Anweisungen für einen bestimmten Endpunkt unterstützt werden, finden Sie in dem Abschnitt zur Beschreibung des betreffenden Endpunkts.

# Einstellungen der Zeichenersetzungsaufgabe
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.CharacterSubstitution"></a>

Sie können angeben, dass Ihre Replikationsaufgabe Zeichenersetzungen in der Zieldatenbank für alle Quelldatenbankspalten mit dem Datentyp AWS DMS `STRING` oder `WSTRING` durchführt. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example). 

Sie können die Zeichenersetzung für jede Aufgabe mit Endpunkten aus den folgenden Quell- und Zieldatenbanken konfigurieren:
+ Quelldatenbanken:
  + Oracle
  + Microsoft SQL Server
  + MySQL
  + MariaDB
  + PostgreSQL
  + SAP Adaptive Server Enterprise (ASE)
  + IBM Db2 (LUW)
+ Zieldatenbanken:
  + Oracle
  + Microsoft SQL Server
  + MySQL
  + MariaDB
  + PostgreSQL
  + SAP Adaptive Server Enterprise (ASE)
  + Amazon Redshift

Sie können Zeichenersetzungen mithilfe des Parameters `CharacterSetSettings` in Ihren Aufgabeneinstellungen angeben. Diese Zeichenersetzungen erfolgen für Zeichen, die mit dem Unicode-Codepunktwert in Hexadezimalnotation angegeben werden. Sie können die Ersetzungen in zwei Phasen in der folgenden Reihenfolge implementieren, wenn beide angegeben sind:

1. **Individuelle Zeichenersetzung** — AWS DMS kann die Werte ausgewählter Zeichen in der Quelle durch die angegebenen Ersatzwerte der entsprechenden Zeichen auf dem Ziel ersetzen. Verwenden Sie das `CharacterReplacements`-Array in `CharacterSetSettings`, um alle Quellzeichen mit den von Ihnen angegebenen Unicode-Codepunkten auszuwählen. Verwenden Sie dieses Array auch, um die Ersatz-Codepunkte für die entsprechenden Zeichen auf dem Ziel anzugeben. 

   Um alle Zeichen in der Quelle auszuwählen, die einen bestimmten Codepunkt haben, legen Sie eine Instance von `SourceCharacterCodePoint` im `CharacterReplacements`-Array auf diesen Codepunkt fest. Geben Sie dann den Ersatz-Codepunkt für alle gleichwertigen Zielzeichen an, indem Sie die entsprechende Instance von `TargetCharacterCodePoint` in diesem Array festlegen. Um Zielzeichen zu löschen, anstatt sie zu ersetzen, setzen Sie die entsprechenden Instances von `TargetCharacterCodePoint` auf Null (0). Sie können beliebig viele verschiedene Werte von Zielzeichen ersetzen oder löschen, indem Sie zusätzliche Paare von `SourceCharacterCodePoint`- und `TargetCharacterCodePoint`-Einstellungen im `CharacterReplacements`-Array angeben. Wenn Sie denselben Wert für mehrere Instances von `SourceCharacterCodePoint` angeben, gilt der Wert der letzten entsprechenden Einstellung von `TargetCharacterCodePoint` für das Ziel.

   Angenommen, Sie geben z. B. die folgenden Werte für `CharacterReplacements` an.

   ```
   "CharacterSetSettings": {
       "CharacterReplacements": [ {
           "SourceCharacterCodePoint": 62,
           "TargetCharacterCodePoint": 61
           }, {
           "SourceCharacterCodePoint": 42,
           "TargetCharacterCodePoint": 41
           }
       ]
   }
   ```

   In diesem Beispiel werden alle Zeichen mit dem Quellcodepunkt-Hexadezimalwert 62 auf dem Ziel durch Zeichen mit dem Codepunktwert 61 AWS DMS ersetzt. AWS DMS Ersetzt außerdem alle Zeichen mit dem Quellcodepunkt 42 auf dem Ziel durch Zeichen mit dem Codepunktwert 41. Anders gesagt, ersetzt AWS DMS alle Instances des Buchstaben `'b'`auf dem Ziel durch den Buchstaben `'a'`. AWS DMS Ersetzt auf ähnliche Weise alle Vorkommen des Buchstabens `'B'` auf dem Ziel durch den Buchstaben`'A'`.

1. **Überprüfung und Ersetzung des Zeichensatzes** — Nachdem alle einzelnen Zeichen ersetzt wurden, AWS DMS kann sichergestellt werden, dass alle Zielzeichen gültige Unicode-Codepunkte in dem von Ihnen angegebenen Zeichensatz enthalten. Sie verwenden `CharacterSetSupport` in `CharacterSetSettings`, um diese Verifizierung und Modifizierung von Zielzeichen zu konfigurieren. Um den Verifizierungszeichensatz anzugeben, legen Sie `CharacterSet` in `CharacterSetSupport` auf den Zeichenfolgenwert des Zeichensatzes fest. (Nachstehend finden Sie die möglichen Werte für `CharacterSet`.) Sie können die ungültigen Zielzeichen auf eine der folgenden Arten AWS DMS ändern:
   + Geben Sie einen einzigen Ersatz-Unicode-Codepunkt für alle ungültigen Zielzeichen an, unabhängig von ihrem aktuellen Codepunkt. Um diesen Ersatz-Codepunkt zu konfigurieren, setzen Sie `ReplaceWithCharacterCodePoint` in `CharacterSetSupport` auf den angegebenen Wert.
   + Konfigurieren Sie das Löschen aller ungültigen Zielzeichen, indem Sie `ReplaceWithCharacterCodePoint` auf Null (0) setzen.

   Angenommen, Sie geben z. B. die folgenden Werte für `CharacterSetSupport` an.

   ```
   "CharacterSetSettings": {
       "CharacterSetSupport": {
           "CharacterSet": "UTF16_PlatformEndian",
           "ReplaceWithCharacterCodePoint": 0
       }
   }
   ```

   In diesem Beispiel AWS DMS werden alle Zeichen auf dem Ziel gelöscht, die im `"UTF16_PlatformEndian"` Zeichensatz ungültig sind. Daher werden alle mit dem Hexadezimalwert `2FB6` angegebenen Zeichen gelöscht. Dieser Wert ist ungültig, da es sich um einen 4-Byte-Unicode-Codepunkt handelt und UTF16 Zeichensätze nur Zeichen mit 2-Byte-Codepunkten akzeptieren.

**Anmerkung**  
Die Replikationsaufgabe schließt alle angegebenen Zeichenersetzungen ab, bevor globale Transformationen oder Transformationen auf Tabellenebene gestartet werden, die Sie über die Tabellenzuordnung angeben. Weitere Informationen zur Tabellenzuweisung finden Sie unter [Verwenden der Tabellenzuweisung zum Angeben von Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TableMapping.md).  
Die Zeichenersetzung unterstützt keine LOB-Datentypen. Dazu gehören alle Datentypen, die DMS als LOB-Datentyp betrachtet. Beispielsweise wird der Datentyp `Extended` in Oracle als LOB betrachtet. Weitere Hinweise zu Quelldatentypen finden Sie unter [Quelldatentypen für Oracle](CHAP_Source.Oracle.md#CHAP_Source.Oracle.DataTypes). 

Die Werte, die für AWS DMS `CharacterSet` unterstützen, sind in der folgenden Tabelle aufgeführt.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/de_de/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.CharacterSubstitution.html)

# Vorher-Abbild-Aufgabeneinstellungen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.BeforeImage"></a>

Wenn Sie CDC-Aktualisierungen auf ein Daten-Streaming-Ziel wie Kinesis oder Apache Kafka schreiben, können Sie die ursprünglichen Werte einer Zeile in der Quelldatenbank anzeigen, bevor sie durch eine Aktualisierung geändert werden. Um dies zu ermöglichen, AWS DMS füllt es ein *Vorher-Abbild* der Aktualisierungsereignisse auf der Grundlage von Daten aus, die von der Quelldatenbank-Engine bereitgestellt werden. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example).

Hierfür verwenden Sie den Parameter `BeforeImageSettings`, der jeder Aktualisierungsoperation ein neues JSON-Attribut hinzufügt, wobei Werte aus dem Quelldatenbanksystem erfasst werden. 

Stellen Sie sicher, dass Sie `BeforeImageSettings` nur auf Aufgaben für vollständiges Laden plus CDC oder auf reine CDC-Aufgaben anwenden. Bei Aufgaben für vollständiges Laden plus CDC werden vorhandene Daten migriert und fortlaufende Änderungen repliziert. Bei reinen CDC-Aufgaben werden nur Datenänderungen repliziert. 

Wenden Sie `BeforeImageSettings` nicht auf Nur-Volllast-Aufgaben an.

Für `BeforeImageSettings` sind folgende Optionen möglich:
+ `EnableBeforeImage` – Aktiviert Vorher-Abbilder, wenn auf `true` gesetzt. Der Standardwert ist `false`. 
+ `FieldName` – Weist dem neuen JSON-Attribut einen Namen zu. Wann `EnableBeforeImage` `true` ist, ist `FieldName` erforderlich und darf nicht leer sein.
+ `ColumnFilter` – Gibt eine Spalte an, die mithilfe von Vorher-Abbildern hinzugefügt werden soll. Wenn Sie nur Spalten hinzufügen möchten, die Teil der Primärschlüssel der Tabelle sind, verwenden Sie den Standardwert `pk-only`. Wenn Sie eine Spalte hinzufügen möchten, die einen Vorher-Abbild-Wert hat, verwenden Sie `all`. Beachten Sie, dass das Vorher-Abbild keine LOB-Datentypen (LOB = Large Binary Object) wie CLOB und BLOB unterstützt.

Das folgende Beispiel veranschaulicht die Verwendung von `BeforeImageSettings`. 

```
"BeforeImageSettings": {
    "EnableBeforeImage": true,
    "FieldName": "before-image",
    "ColumnFilter": "pk-only"
  }
```

Weitere Informationen zu den Vorher-Abbild-Einstellungen für Kinesis, einschließlich zusätzlicher Tabellenzuweisungseinstellungen, finden Sie unter [Verwenden eines Vorher-Abbilds zum Anzeigen von Originalwerten von CDC-Zeilen für einen Kinesis-Datenstrom als Ziel](CHAP_Target.Kinesis.md#CHAP_Target.Kinesis.BeforeImage).

Weitere Informationen zu den Vorher-Abbild-Einstellungen für Kafka, einschließlich zusätzlicher Tabellenzuordnungseinstellungen, finden Sie unter [Verwenden eines Vorher-Abbilds zum Anzeigen von Originalwerten von CDC-Zeilen für Apache Kafka als Ziel](CHAP_Target.Kafka.md#CHAP_Target.Kafka.BeforeImage).

# Aufgabeneinstellungen zur Fehlerbehandlung
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.ErrorHandling"></a>

Sie können das Fehlerbehandlungsverhalten der Replikationsaufgabe mit den folgenden Einstellungen festlegen. Informationen zur Verwendung einer Aufgabenkonfigurationsdatei zum Festlegen von Aufgabeneinstellungen finden Sie unter [Beispiel für Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.md#CHAP_Tasks.CustomizingTasks.TaskSettings.Example).
+ `DataErrorPolicy`— Legt fest, welche Aktion AWS DMS ergreift, wenn ein Fehler im Zusammenhang mit der Datenverarbeitung auf Datensatzebene auftritt. Einige Beispiele für Fehler bei der Datenverarbeitung sind Konvertierungsfehler, Fehler bei der Transformation und ungültige Daten. Der Standardwert ist `LOG_ERROR`.
  + `IGNORE_RECORD` – Die Aufgabe wird fortgesetzt und die Daten für diesen Datensatz werden ignoriert. Der Fehlerzähler für die Eigenschaft `DataErrorEscalationCount` wird erhöht. Wenn Sie also ein Limit für Fehler für eine Tabelle festlegen, wird dieser Fehler auf dieses Limit angerechnet. 
  + `LOG_ERROR` – Die Aufgabe wird fortgesetzt und der Fehler wird in das Aufgabenprotokoll geschrieben.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
+ `DataTruncationErrorPolicy` – Legt die Aktion fest, die AWS DMS ausführt, wenn Daten gekürzt sind. Der Standardwert ist `LOG_ERROR`.
  + `IGNORE_RECORD` – Die Aufgabe wird fortgesetzt und die Daten für diesen Datensatz werden ignoriert. Der Fehlerzähler für die Eigenschaft `DataErrorEscalationCount` wird erhöht. Wenn Sie also ein Limit für Fehler für eine Tabelle festlegen, wird dieser Fehler auf dieses Limit angerechnet. 
  + `LOG_ERROR` – Die Aufgabe wird fortgesetzt und der Fehler wird in das Aufgabenprotokoll geschrieben.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
+ `DataErrorEscalationPolicy` – Legt die Aktion fest, die AWS DMS ausführt, wenn die maximale Anzahl an Fehlern (im Parameter `DataErrorEscalationCount` festgelegt) erreicht ist. Der Standardwert ist `SUSPEND_TABLE`.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
+ `DataErrorEscalationCount` – Legt die maximale Anzahl an Fehlern fest, die für einen bestimmten Datensatz auftreten können. Wenn diese Anzahl erreicht ist, werden die Daten für die Tabelle, die den fehlerhaften Datensatz enthält, gemäß der Richtlinie behandelt, die in `DataErrorEscalationPolicy` festgelegt ist. Der Standardwert ist 0. 
+ `EventErrorPolicy`— Legt fest, welche Aktion AWS DMS ergreift, wenn beim Senden eines aufgabenbezogenen Ereignisses ein Fehler auftritt. Mögliche Werte
  + `IGNORE` – Die Aufgabe wird fortgesetzt und alle mit diesem Ereignis verknüpften Daten werden ignoriert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
+ `TableErrorPolicy` – Legt die Aktion fest, die AWS DMS ausführt, wenn bei der Verarbeitung von Daten oder Metadaten für eine bestimmte Tabelle ein Fehler auftritt. Dieser Fehler gilt nur für allgemeine Tabellendaten und ist kein Fehler, der sich auf einen bestimmten Datensatz bezieht. Der Standardwert ist `SUSPEND_TABLE`.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
+ `TableErrorEscalationPolicy` – Legt die Aktion fest, die AWS DMS ausführt, wenn die maximale Anzahl an Fehlern (über den Parameter `TableErrorEscalationCount` festgelegt) erreicht ist. Die Standard- und einzige Benutzereinstellung ist `STOP_TASK`: Die Aufgabe wird angehalten und ein manueller Eingriff ist erforderlich.
+ `TableErrorEscalationCount` – Die maximale Anzahl an Fehlern, die bei allgemeinen Daten oder Metadaten für eine bestimmte Tabelle auftreten können. Wenn diese Anzahl erreicht ist, werden die Daten für die Tabelle gemäß der Richtlinie behandelt, die in `TableErrorEscalationPolicy` festgelegt wurde. Der Standardwert ist 0. 
+ `RecoverableErrorCount` – Die maximale Anzahl an Versuchen zum Neustart einer Aufgabe, wenn ein Umgebungsfehler auftritt. Nachdem das System so oft wie angegeben versucht hat, die Aufgabe neu zu starten, wird die Aufgabe angehalten und ein manueller Eingriff ist erforderlich. Der Standardwert ist -1.

  Wenn Sie diesen Wert auf -1 setzen, variiert die Anzahl der Wiederholungsversuche, die DMS versucht, je nach dem zurückgegebenen Fehlertyp wie folgt:
  + **Status Running, behebbarer Fehler**: Tritt ein behebbarer Fehler auf, z. B. ein Verbindungsverlust oder ein Fehler bei der Zielanwendung, wiederholt DMS die Aufgabe neun Mal.
  + **Startstatus, behebbarer Fehler**: DMS wiederholt die Aufgabe sechsmal.
  + **Laufender Status, schwerwiegender Fehler, der vom DMS behandelt wurde: DMS versucht** die Aufgabe sechsmal erneut.
  + **Status Running, fataler Fehler, der vom DMS nicht behandelt wurde: DMS** versucht die Aufgabe nicht erneut.
  + **Anders als oben**: AWS DMS Wiederholt die Aufgabe auf unbestimmte Zeit.

  Legen Sie diesen Wert auf 0 fest, um nie zu versuchen, eine Aufgabe neu zu starten. 

  Es wird empfohlen, Werte so einzustellen`RecoverableErrorCount`, dass in ausreichenden Intervallen genügend Wiederholungen erfolgen, damit Ihre DMS-Aufgabe ordnungsgemäß wiederhergestellt werden kann. `RecoverableErrorInterval` Wenn ein schwerwiegender Fehler auftritt, unterbricht DMS in den meisten Szenarien die Neustartversuche.
+ `RecoverableErrorInterval`— Die Anzahl der Sekunden, die AWS DMS zwischen Versuchen wartet, eine Aufgabe neu zu starten. Der Standardwert ist 5. 
+ `RecoverableErrorThrottling` – Wenn diese Option aktiviert ist, wird das Intervall zwischen den Versuchen zum Neustart einer Aufgabe in einer Reihe verlängert, basierend auf dem Wert von `RecoverableErrorInterval`. Wenn für `RecoverableErrorInterval` beispielsweise 5 Sekunden festgelegt sind, erfolgt der nächste Wiederholungsversuch nach 10 Sekunden, dann nach 20 Sekunden, dann nach 40 Sekunden usw. Der Standardwert ist `true`. 
+ `RecoverableErrorThrottlingMax`— Die maximale Anzahl von Sekunden, die AWS DMS zwischen Versuchen wartet, eine Aufgabe neu zu starten, falls diese Option aktiviert ist. `RecoverableErrorThrottling` Der Standardwert ist 1800. 
+ `RecoverableErrorStopRetryAfterThrottlingMax`— Der Standardwert ist auf festgelegt`true`, und DMS beendet die Wiederaufnahme der Aufgabe, wenn die maximale Anzahl von Sekunden, die zwischen den Wiederherstellungsversuchen AWS DMS gewartet werden kann, pro erreicht ist. `RecoverableErrorStopRetryAfterThrottlingMax` Wenn diese Option auf gesetzt ist`false`, setzt DMS die Aufgabe fort, wenn die maximale Anzahl von Sekunden, die zwischen Wiederherstellungsversuchen vergehen, AWS DMS pro Tag erreicht ist, bis diese erreicht ist. `RecoverableErrorStopRetryAfterThrottlingMax` `RecoverableErrorCount`
+ `ApplyErrorDeletePolicy` – Legt fest, welche Aktion AWS DMS ausführt, wenn es zu einem Konflikt mit einem DELETE-Vorgang kommt. Der Standardwert ist `IGNORE_RECORD`. Folgende Werte sind möglich:
  + `IGNORE_RECORD` – Die Aufgabe wird fortgesetzt und die Daten für diesen Datensatz werden ignoriert. Der Fehlerzähler für die Eigenschaft `ApplyErrorEscalationCount` wird erhöht. Wenn Sie also ein Limit für Fehler für eine Tabelle festlegen, wird dieser Fehler auf dieses Limit angerechnet. 
  + `LOG_ERROR` – Die Aufgabe wird fortgesetzt und der Fehler wird in das Aufgabenprotokoll geschrieben.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
+ `ApplyErrorInsertPolicy` – Legt fest, welche Aktion AWS DMS ausführt, wenn es zu einem Konflikt mit einem INSERT-Vorgang kommt. Der Standardwert ist `LOG_ERROR`. Folgende Werte sind möglich:
  + `IGNORE_RECORD` – Die Aufgabe wird fortgesetzt und die Daten für diesen Datensatz werden ignoriert. Der Fehlerzähler für die Eigenschaft `ApplyErrorEscalationCount` wird erhöht. Wenn Sie also ein Limit für Fehler für eine Tabelle festlegen, wird dieser Fehler auf dieses Limit angerechnet. 
  + `LOG_ERROR` – Die Aufgabe wird fortgesetzt und der Fehler wird in das Aufgabenprotokoll geschrieben.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
  + `INSERT_RECORD` – Wenn ein bereits bestehender Zieldatensatz denselben Primärschlüssel wie der eingefügte Quelldatensatz aufweist, wird der Zieldatensatz aktualisiert.
**Anmerkung**  
**Im Modus „Transactional Apply“**: Bei diesem Vorgang versucht das System zunächst, den Datensatz einzufügen. Wenn das Einfügen aufgrund eines Primärschlüsselkonflikts fehlschlägt, löscht es den vorhandenen Datensatz und fügt dann den neuen ein. 
**Im Batch Apply-Modus**: Der Prozess entfernt alle vorhandenen Datensätze im Zielstapel, bevor der komplette Satz neuer Datensätze eingefügt wird, wodurch ein sauberes Ersetzen der Daten gewährleistet wird.
Dieser Prozess verhindert Datenduplikationen, verursacht jedoch im Vergleich zur Standardrichtlinie einige Leistungseinbußen. Die genaue Auswirkung auf die Leistung hängt von Ihren spezifischen Workload-Merkmalen ab.
+ `ApplyErrorUpdatePolicy` – Legt fest, welche Aktion AWS DMS ausführt, wenn es zu einem Konflikt bezüglich fehlender Daten mit einem UPDATE-Vorgang kommt. Der Standardwert ist `LOG_ERROR`. Folgende Werte sind möglich:
  + `IGNORE_RECORD` – Die Aufgabe wird fortgesetzt und die Daten für diesen Datensatz werden ignoriert. Der Fehlerzähler für die Eigenschaft `ApplyErrorEscalationCount` wird erhöht. Wenn Sie also ein Limit für Fehler für eine Tabelle festlegen, wird dieser Fehler auf dieses Limit angerechnet. 
  + `LOG_ERROR` – Die Aufgabe wird fortgesetzt und der Fehler wird in das Aufgabenprotokoll geschrieben.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
  + `UPDATE_RECORD`— Wenn der Zieldatensatz fehlt, wird der fehlende Zieldatensatz in die Zieltabelle eingefügt. AWS DMS deaktiviert die LOB-Spaltenunterstützung für die Aufgabe vollständig. Wenn diese Option ausgewählt wird, muss die vollständige ergänzende Protokollierung für alle Quelltabellenspalten aktiviert werden, wenn Oracle die Quelldatenbank ist.
**Anmerkung**  
**Im Modus „Transactional Apply“**: In diesem Prozess versucht das System zunächst, den Datensatz zu aktualisieren. Wenn die Aktualisierung aufgrund eines fehlenden Datensatzes auf dem Zieldatensatz fehlschlägt, löscht es den fehlerhaften Datensatz und fügt dann den neuen ein. Dieser Prozess erfordert eine vollständige zusätzliche Protokollierung für Oracle-Quelldatenbanken, und DMS deaktiviert die LOB-Spaltenunterstützung für diese Aufgabe.
**Im Batch Apply-Modus**: Der Prozess entfernt alle vorhandenen Datensätze im Zielstapel, bevor der komplette Satz neuer Datensätze eingefügt wird, wodurch ein sauberes Ersetzen der Daten gewährleistet wird.
+ `ApplyErrorEscalationPolicy`— Legt fest, welche Aktion AWS DMS ergreift, wenn die maximale Anzahl von Fehlern (die mithilfe des `ApplyErrorEscalationCount` Parameters festgelegt wurde) erreicht ist. Die Standardeinstellung ist LOG\$1ERROR:
  + `LOG_ERROR` – Die Aufgabe wird fortgesetzt und der Fehler wird in das Aufgabenprotokoll geschrieben.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.
  + `STOP_TASK` – Die Aufgabe wird gestoppt und ein manuelles Eingreifen ist erforderlich.
+ `ApplyErrorEscalationCount` – Legt die maximale Anzahl der APPLY-Konflikte fest, die während einer Prozessänderung für eine bestimmte Tabelle auftreten können. Wenn diese Anzahl erreicht ist, werden die Daten für die Tabelle gemäß der Richtlinie behandelt, die im Parameter `ApplyErrorEscalationPolicy` festgelegt wurde. Der Standardwert ist 0. 
+ `ApplyErrorFailOnTruncationDdl` – Legen Sie für diese Option `true` fest, damit die Aufgabe fehlschlägt, wenn an einer der nachverfolgten Tabellen während CDC eine Kürzung vorgenommen wird. Der Standardwert ist `false`. 

  Dieser Ansatz funktioniert nicht mit PostgreSQL Version 11.x oder niedriger oder einem anderen Quellendpunkt, der die DDL-Tabellenkürzung nicht repliziert.
+ `FailOnNoTablesCaptured` – Legen Sie für diese Option `true` fest, damit die Aufgabe fehlschlägt, wenn die für eine Aufgabe definierten Tabellenzuweisungen beim Start der Aufgabe keine Tabellen finden. Der Standardwert ist `true`.
+ `FailOnTransactionConsistencyBreached` – Diese Option gilt für Aufgaben, die für CDC Oracle als Quelle verwenden. Der Standardwert lautet „false“. Geben Sie dies mit `true` an, damit eine Aufgabe fehlschlägt, wenn eine Transaktion länger als der angegebene Timeoutwert geöffnet ist und verworfen werden kann. 

  Wenn eine CDC-Aufgabe mit Oracle gestartet wird, AWS DMS wartet eine begrenzte Zeit, bis die älteste offene Transaktion geschlossen ist, bevor CDC gestartet wird. Wenn die älteste offene Transaktion erst geschlossen wird, wenn das Timeout erreicht ist, wird CDC in den meisten Fällen AWS DMS gestartet, wobei diese Transaktion ignoriert wird. Wenn diese Option auf `true` gesetzt ist, schlägt die Aufgabe fehl.
+ `FullLoadIgnoreConflicts`— Stellen Sie diese Option so ein, `true` dass die Fehler „Keine betroffenen Zeilen“ und „Duplikate“ bei der Anwendung zwischengespeicherter Ereignisse AWS DMS ignoriert werden. Wenn diese Option auf gesetzt ist`false`, werden alle Fehler AWS DMS gemeldet, anstatt sie zu ignorieren. Der Standardwert ist `true`. 
+ `DataMaskingErrorPolicy`— Legt fest, welche Aktion ausgeführt wird, wenn die Datenmaskierung aufgrund eines inkompatiblen Datentyps oder aus einem anderen Grund AWS DMS fehlschlägt. Die folgenden Optionen sind verfügbar:
  + `STOP_TASK`(Standard) — Die Aufgabe wird beendet und ein manuelles Eingreifen ist erforderlich.
  + `IGNORE_RECORD` – Die Aufgabe wird fortgesetzt und die Daten für diesen Datensatz werden ignoriert.
  + `LOG_ERROR` – Die Aufgabe wird fortgesetzt und der Fehler wird in das Aufgabenprotokoll geschrieben. Unmaskierte Daten werden in die Zieltabelle geladen.
  + `SUSPEND_TABLE` – Die Aufgabe wird fortgesetzt, Daten aus der Tabelle mit dem fehlerhaften Datensatz werden jedoch in einen Fehlerstatus verschoben und die Daten werden nicht repliziert.

**Anmerkung**  
 Fehler beim Laden von Tabellen in Redshift als Ziel werden unter gemeldet. `STL_LOAD_ERRORS` Weitere Informationen finden Sie unter [STL\$1LOAD\$1ERRORS](https://docs.aws.amazon.com/redshift/latest/dg/r_STL_LOAD_ERRORS.html) im *Datenbankentwicklerhandbuch für Amazon Redshift*.

**Anmerkung**  
Parameteränderungen im Zusammenhang mit behebbaren Fehlern werden erst wirksam, wenn Sie die DMS-Aufgabe beenden und wieder aufnehmen. Änderungen gelten nicht für die aktuelle Ausführung.

# Speichern der Aufgabeneinstellungen
<a name="CHAP_Tasks.CustomizingTasks.TaskSettings.Saving"></a>

Sie können die Aufgabeneinstellungen als JSON-Datei speichern, falls Sie die Einstellungen für eine andere Aufgabe wiederverwenden möchten. Aufgabeneinstellungen zum Kopieren in eine JSON-Datei finden Sie im Abschnitt **Übersichtsdetails** einer Aufgabe.

**Anmerkung**  
Wenn Sie Aufgabeneinstellungen für andere Aufgaben wiederverwenden, entfernen Sie alle Attribute `CloudWatchLogGroup` und `CloudWatchLogStream`. Andernfalls wird der folgende Fehler angezeigt: SYSTEM ERROR MESSAGE:Task Settings CloudWatchLogGroup or CloudWatchLogStream cannot be set on create.

Zum Beispiel enthält die folgende JSON-Datei gespeicherte Einstellungen für eine Aufgabe.

```
{
    "TargetMetadata": {
        "TargetSchema": "",
        "SupportLobs": true,
        "FullLobMode": false,
        "LobChunkSize": 0,
        "LimitedSizeLobMode": true,
        "LobMaxSize": 32,
        "InlineLobMaxSize": 0,
        "LoadMaxFileSize": 0,
        "ParallelLoadThreads": 0,
        "ParallelLoadBufferSize": 0,
        "BatchApplyEnabled": false,
        "TaskRecoveryTableEnabled": false,
        "ParallelLoadQueuesPerThread": 0,
        "ParallelApplyThreads": 0,
        "ParallelApplyBufferSize": 0,
        "ParallelApplyQueuesPerThread": 0
    },
    "FullLoadSettings": {
        "TargetTablePrepMode": "DO_NOTHING",
        "CreatePkAfterFullLoad": false,
        "StopTaskCachedChangesApplied": false,
        "StopTaskCachedChangesNotApplied": false,
        "MaxFullLoadSubTasks": 8,
        "TransactionConsistencyTimeout": 600,
        "CommitRate": 10000
    },
    "Logging": {
        "EnableLogging": true,
        "LogComponents": [
            {
                "Id": "TRANSFORMATION",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "SOURCE_UNLOAD",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "IO",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "TARGET_LOAD",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "PERFORMANCE",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "SOURCE_CAPTURE",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "SORTER",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "REST_SERVER",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "VALIDATOR_EXT",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "TARGET_APPLY",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "TASK_MANAGER",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "TABLES_MANAGER",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "METADATA_MANAGER",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "FILE_FACTORY",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "COMMON",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "ADDONS",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "DATA_STRUCTURE",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "COMMUNICATION",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            },
            {
                "Id": "FILE_TRANSFER",
                "Severity": "LOGGER_SEVERITY_DEFAULT"
            }
        ]
    },
    "ControlTablesSettings": {
        "ControlSchema": "",
        "HistoryTimeslotInMinutes": 5,
        "HistoryTableEnabled": false,
        "SuspendedTablesTableEnabled": false,
        "StatusTableEnabled": false,
        "FullLoadExceptionTableEnabled": false
    },
    "StreamBufferSettings": {
        "StreamBufferCount": 3,
        "StreamBufferSizeInMB": 8,
        "CtrlStreamBufferSizeInMB": 5
    },
    "ChangeProcessingDdlHandlingPolicy": {
        "HandleSourceTableDropped": true,
        "HandleSourceTableTruncated": true,
        "HandleSourceTableAltered": true
    },
    "ErrorBehavior": {
        "DataErrorPolicy": "LOG_ERROR",
        "DataTruncationErrorPolicy": "LOG_ERROR",
        "DataErrorEscalationPolicy": "SUSPEND_TABLE",
        "DataErrorEscalationCount": 0,
        "TableErrorPolicy": "SUSPEND_TABLE",
        "TableErrorEscalationPolicy": "STOP_TASK",
        "TableErrorEscalationCount": 0,
        "RecoverableErrorCount": -1,
        "RecoverableErrorInterval": 5,
        "RecoverableErrorThrottling": true,
        "RecoverableErrorThrottlingMax": 1800,
        "RecoverableErrorStopRetryAfterThrottlingMax": true,
        "ApplyErrorDeletePolicy": "IGNORE_RECORD",
        "ApplyErrorInsertPolicy": "LOG_ERROR",
        "ApplyErrorUpdatePolicy": "LOG_ERROR",
        "ApplyErrorEscalationPolicy": "LOG_ERROR",
        "ApplyErrorEscalationCount": 0,
        "ApplyErrorFailOnTruncationDdl": false,
        "FullLoadIgnoreConflicts": true,
        "FailOnTransactionConsistencyBreached": false,
        "FailOnNoTablesCaptured": true
    },
    "ChangeProcessingTuning": {
        "BatchApplyPreserveTransaction": true,
        "BatchApplyTimeoutMin": 1,
        "BatchApplyTimeoutMax": 30,
        "BatchApplyMemoryLimit": 500,
        "BatchSplitSize": 0,
        "MinTransactionSize": 1000,
        "CommitTimeout": 1,
        "MemoryLimitTotal": 1024,
        "MemoryKeepTime": 60,
        "StatementCacheSize": 50
    },
    "PostProcessingRules": null,
    "CharacterSetSettings": null,
    "LoopbackPreventionSettings": null,
    "BeforeImageSettings": null,
    "FailTaskWhenCleanTaskResourceFailed": false
}
```

# Einstellung der LOB-Unterstützung für Quelldatenbanken in einer Aufgabe AWS DMS
<a name="CHAP_Tasks.LOBSupport"></a>

Es kann manchmal schwierig sein, große binäre Objekte (LOBs) zwischen Systemen zu migrieren. AWS DMS bietet eine Reihe von Optionen, die bei der Optimierung von LOB-Spalten helfen. Informationen darüber, welche und wann Datentypen berücksichtigt LOBs werden AWS DMS, finden Sie in der AWS DMS Dokumentation.

Wenn Sie Daten von einer Datenbank in eine andere migrieren, nutzen Sie möglicherweise die Gelegenheit, um zu überdenken, wie Ihre Daten gespeichert LOBs werden, insbesondere bei heterogenen Migrationen. Wenn Sie dies möchten, müssen Sie die LOB-Daten nicht migrieren.

Wenn Sie sich für die Aufnahme entscheiden LOBs, können Sie anschließend die anderen LOB-Einstellungen festlegen:
+ Der LOB-Modus bestimmt, wie damit umgegangen LOBs wird:
  + **Vollständiger LOB-Modus** — Im vollständigen LOB-Modus werden alle Daten unabhängig von der Größe LOBs von der Quelle zum Ziel AWS DMS migriert. In dieser Konfiguration liegen keine Informationen über die zu erwartende maximale Größe vor LOBs . AWS DMS Somit LOBs werden nacheinander, Stück für Stück, migriert. Der vollständige LOB-Modus kann recht langsam sein.
  + Limitierter LOB-Modus – Im limitierten LOB-Modus können Sie eine maximale LOB-Größe festlegen, die von DMS akzeptiert werden sollte. Dadurch kann DMS Speicher vorab zuweisen und die LOB-Daten in großen Mengen laden. LOBsdie die maximale LOB-Größe überschreiten, werden gekürzt, und es wird eine Warnung in der Protokolldatei ausgegeben. Im limitierten LOB-Modus kann gegenüber dem vollständigen LOB-Modus eine erhebliche Leistungssteigerung erzielt werden. Wir empfehlen Ihnen, nach Möglichkeit den eingeschränkten LOB-Modus zu verwenden. Der Höchstwert für diesen Parameter ist 102400 KB (100 MB).
**Anmerkung**  
Wenn die Option „Maximale LOB-Größe (KB)“ mit einem Wert von mehr als 63 KB verwendet wird, beeinträchtigt dies die Leistung eines vollständigen Ladevorgangs, der für die Ausführung im limitierten LOB-Modus konfiguriert ist. Beim vollständigen Laden weist DMS Speicher zu, indem der Wert für die maximale LOB-Größe (KB) mit der Commit-Rate multipliziert und das Produkt mit der Anzahl der LOB-Spalten multipliziert wird. Wenn DMS diesen Speicher nicht vorab zuweisen kann, verbraucht es SWAP-Speicher, was sich negativ auf die Leistung der Vollladeaufgaben auswirkt. Wenn bei der Verwendung des eingeschränkten LOB-Modus Leistungsprobleme auftreten, sollten Sie die Übertragungsrate verringern, bis Sie ein akzeptables Leistungsniveau erreicht haben. Während eines CDC-Modus weist DMS Speicher zu, indem es die Anzahl der LOB-Spalten mit dem Parameter Max. LOB-Größe multipliziert, der in den Task-Einstellungen für begrenzte LOBs angegeben ist, und anschließend mit der Datensatzgröße. Der DMS-CDC-Prozess läuft pro DMS-Aufgabe in einem einzigen Thread ab. Weitere Informationen finden Sie unter [Ändern der Einstellungen für die Verarbeitungsoptimierung](https://docs.aws.amazon.com/dms/latest/userguide/CHAP_Tasks.CustomizingTasks.TaskSettings.ChangeProcessingTuning.html).  
Um die begrenzte LOB-Größe zu überprüfen, müssen Sie für `ValidationPartialLobSize` denselben Wert wie für `LobMaxSize` (KB) angeben.
  + **Inline-LOB-Modus** — Im Inline-LOB-Modus legen Sie die maximale LOB-Größe fest, die DMS inline überträgt. LOBs Kleinere als die angegebene Größe werden inline übertragen. LOBs größer als die angegebene Größe werden im vollständigen LOB-Modus repliziert. Sie können diese Option wählen, um sowohl kleine als auch große zu replizieren, LOBs wenn die LOBs meisten davon klein sind. Für Endpunkte, die den vollständigen LOB-Modus nicht unterstützen, wie S3 und Redshift, unterstützt DMS den Inline-LOB-Modus nicht.
**Anmerkung**  
Bei Oracle LOBs werden Datentypen wann immer möglich als VARCHAR-Datentypen behandelt. Dieser Ansatz bedeutet, dass sie in großen Mengen aus der Datenbank AWS DMS abgerufen werden, was deutlich schneller ist als bei anderen Methoden. Die maximale Größe eines VARCHAR in Oracle beträgt 32 K. Wenn Oracle Ihre Quelldatenbank ist, ist eine auf weniger als 32 K begrenzte LOB-Größe daher optimal.
+ Wenn eine Aufgabe zur Ausführung im eingeschränkten LOB-Modus konfiguriert wurde, wird mit der Option **Max LOB size (K) (Maximale LOB-Größe (K))** die maximale LOB-Größe festgelegt, die von AWS DMS akzeptiert wird. Alle Werte LOBs , die größer als dieser Wert sind, werden auf diesen Wert gekürzt.
+ Wenn eine Aufgabe so konfiguriert ist, dass sie den vollständigen LOB-Modus verwendet, AWS DMS ruft LOBs sie in Einzelteilen ab. Die Option **LOB chunk size (K) (LOB-Teilegröße)** bestimmt die Größe der einzelnen Teile. Wenn Sie diese Option festlegen, achten Sie besonders auf die maximale Paketgröße, die gemäß Ihrer Netzwerkkonfiguration zulässig ist. Wenn die LOB-Blockgröße die maximal zulässige Paketgröße überschreitet, erhalten Sie möglicherweise Trennungsfehler. Der empfohlene Wert für `LobChunkSize` ist 64 Kilobyte. Wenn für `LobChunkSize` ein höherer Wert als 64 Kilobyte verwendet wird, kann dies zu Aufgabenfehlern führen.
+ Wenn eine Aufgabe so konfiguriert ist, dass sie im Inline-LOB-Modus ausgeführt wird, bestimmt die `InlineLobMaxSize` Einstellung, welcher LOBs DMS Inline-Übertragungen durchführt.
**Anmerkung**  
Bei CDC-Vorgängen (Change Data Capture) ist für Tabellen, die LOB-Spalten enthalten, ein Primärschlüssel erforderlich. DMS verwendet diesen Schlüssel, um LOB-Werte in der Quelltabelle nachzuschlagen. Diese Anforderung gilt nur für CDC-Aufgaben. Bei Volllastaufgaben können ganze LOB-Spalten ohne Einschränkungen direkt von der Quelle zum Ziel gelesen und kopiert werden.

Weitere Informationen zu den Aufgabeneinstellungen zum Angeben dieser Optionen finden Sie unter [Ziel-Metadaten-Aufgabeneinstellungen](CHAP_Tasks.CustomizingTasks.TaskSettings.TargetMetadata.md)

## SQL-Befehle zur Überprüfung der maximalen LOB-Spaltenlänge in der Quelltabelle
<a name="CHAP_Tasks.Creating.SQLCommandsLOB"></a>

Verwenden Sie die folgenden SQL-Befehle, um die maximale LOB-Spaltenlänge zu überprüfen und entsprechend die DMS-Limited-LOB-Einstellungen zu konfigurieren, um Datenkürzungen bei der Migration zu vermeiden:

**Oracle**  

```
SELECT dbms_lob.getlength(<COL_NAME>) as LOB_LENGTH
FROM <TABLE_NAME>
ORDER BY dbms_lob.getlength(<COL_NAME>) DESC
FETCH FIRST 10 ROWS ONLY;

Select ((max(length(<COL_NAME>)))/(1024)) from <TABLE_NAME>
```

**SQL Server**  

```
Select top 10 datalength(<COL_NAME>) as fieldsize from <TABLE_NAME> order by datalength(<COL_NAME>) desc;
```

**MySQL**  

```
Select (max(length(<COL_NAME>))/(1024)) as "Size in KB" from <TABLE_NAME>;
```

**PostgreSQL**  

```
Select max((octet_length(<COL_NAME>))/(1024.0)) as "Size in KB" from <TABLE_NAME>;
```

**Db2 LUW**  

```
-- Method 1: Using SYSCAT.COLUMNS (converting to KB)

SELECT TABSCHEMA, TABNAME, COLNAME, LENGTH/1024 as LENGTH_KB, TYPENAME FROM SYSCAT.COLUMNS WHERE TYPENAME IN ('BLOB', 'CLOB', 'DBCLOB') ORDER BY LENGTH DESC;

-- Method 2: For specific table with KB conversion

  SELECT COLNAME, LENGTH/1024 as LENGTH_KB, TYPENAME FROM SYSCAT.COLUMNS WHERE TABSCHEMA = 'YOUR_SCHEMA'AND TABNAME = 'YOUR_TABLE'AND TYPENAME IN ('BLOB', 'CLOB', 'DBCLOB'); 
  
-- Method 3: Using SYSIBM.SYSCOLUMNS

SELECT TBCREATOR, TBNAME, NAME, LENGTH/1024 as LENGTH_KB, COLTYPE FROM SYSIBM.SYSCOLUMNS WHERE COLTYPE IN ('BLOB', 'CLOB', 'DBCLOB') ORDER BY LENGTH DESC;

SYBASE :

SELECT c.name as column_name, t.name as data_type, (c.length)/1024 as length_KB FROM syscolumns c JOIN systypes t ON c.usertype = t.usertype WHERE object_name(c.id) = 'YOUR_TABLE_NAME'AND t.name IN ('text', 'image', 'unitext') ORDER BY c.length DESC;
```

# Erstellen mehrerer Aufgaben
<a name="CHAP_Tasks.ReplicationTasks.MultipleTasks"></a>

In einigen Migrationsszenarien müssen Sie möglicherweise mehrere Migrationsaufgaben erstellen. Aufgaben funktionieren unabhängig voneinander und können gleichzeitig ausgeführt werden. Jede Aufgabe hat ihren eigenen Prozess für das anfängliche Laden, CDC und das Lesen von Protokollen. Tabellen, die über DML (Datenmanipulationssprache) miteinander in Beziehung stehen, müssen Teil der gleichen Aufgabe sein.

Einige Gründe für das Erstellen mehrerer Aufgaben für eine Migration sind Folgende:
+ Die Zieltabellen für die Aufgaben liegen auf verschiedenen Datenbanken, z. B., wenn Sie ein System erweitern oder in mehrere Systeme unterteilen.
+ Sie möchten die Migration einer großen Tabelle mithilfe von Filtern in mehrere Aufgaben unterteilen.

**Anmerkung**  
Da jede Aufgabe ihren eigenen Prozess für das Erfassen von Änderungen und das Lesen von Protokollen hat, werden Änderungen *nicht* über Aufgaben hinweg koordiniert. Vergewissern Sie sich daher bei Verwendung mehrerer Aufgaben für die Durchführung einer Migration, dass jede einzelne Quelltransaktion vollständig innerhalb einer einzigen Aufgabe enthalten ist. Sie können mehrere Aufgaben verwenden, um eine Migration durchzuführen, wenn keine einzelne Transaktion auf verschiedene Aufgaben aufgeteilt ist.