

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Fehlerbehebung
<a name="batch-transform-errors"></a>

Wenn Sie Fehler in Amazon SageMaker AI Batch Transform haben, lesen Sie die folgenden Tipps zur Fehlerbehebung.

## Fehler bei der maximalen Zeitüberschreitung
<a name="batch-transform-errors-max-timeout"></a>

Wenn Sie bei der Ausführung von Stapeltransformationsaufträgen Fehler mit der maximalen Zeitüberschreitung erhalten, versuchen Sie Folgendes:
+ Beginnen Sie mit dem Einzeldatensatz-`[BatchStrategy](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTransformJob.html#sagemaker-CreateTransformJob-request-BatchStrategy)`, einer Stapelgröße der Standardgröße (6 MB) oder kleiner, die Sie im Parameter `[MaxPayloadInMB](https://docs.aws.amazon.com//sagemaker/latest/APIReference/API_CreateTransformJob.html#sagemaker-CreateTransformJob-request-MaxPayloadInMB)` angeben, und einem kleinen Beispieldatensatz. Passen Sie den Parameter für die maximale Zeitüberschreitung `[InvocationsTimeoutInSeconds](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ModelClientConfig.html#sagemaker-Type-ModelClientConfig-InvocationsTimeoutInSeconds)` (der maximal 1 Stunde beträgt) so lange an, bis Sie eine erfolgreiche Aufrufantwort erhalten.
+ Nachdem Sie eine erfolgreiche Aufrufantwort erhalten haben, erhöhen Sie den Wert `MaxPayloadInMB` (mit einem Maximum von 100 MB) und die Parameter `InvocationsTimeoutInSeconds` zusammen, um die maximale Stapelgröße zu ermitteln, die Ihr gewünschtes Zeitüberschreitung des Modells unterstützen kann. In diesem Schritt können Sie entweder den Einzeldatensatz oder mehrere Datensätze `BatchStrategy` verwenden.
**Anmerkung**  
Das Überschreiten des `MaxPayloadInMB`-Limits führt zu einem Fehler. Dies kann der Fall sein, wenn ein großer Datensatz nicht aufgeteilt werden kann und der Parameter `SplitType` auf „Keine“ festgelegt ist oder wenn einzelne Datensätze innerhalb des Datensatzes das Limit überschreiten.
+ (Optional) Passen Sie den Parameter `[MaxConcurrentTransforms](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTransformJob.html#sagemaker-CreateTransformJob-request-MaxConcurrentTransforms)` an, der die maximale Anzahl paralleler Anforderungen angibt, die in einem Stapeltransformationsauftrag an jede Instance gesendet werden können. Der Wert von `MaxConcurrentTransforms * MaxPayloadInMB` darf jedoch 100 MB nicht überschreiten.

## Unvollständige Ausgabe
<a name="batch-transform-errors-incomplete"></a>

SageMaker KI verwendet die Amazon S3 [Multipart Upload API](https://docs.aws.amazon.com/AmazonS3/latest/dev/uploadobjusingmpu.html), um Ergebnisse aus einem Batch-Transformationsauftrag in Amazon S3 hochzuladen. Wenn ein Fehler auftritt, werden die hochgeladenen Ergebnisse aus Amazon S3 entfernt. In einigen Fällen, z. B. bei einem Netzwerkausfall, verbleibt möglicherweise ein unvollständiger mehrteiliger Upload in Amazon S3. Ein unvollständiger Upload kann auch auftreten, wenn Sie mehrere Eingabedateien haben, aber einige der Dateien nicht von SageMaker AI Batch Transform verarbeitet werden können. Die Eingabedateien, die nicht verarbeitet werden konnten, haben in Amazon S3 keine entsprechenden Ausgabedateien.

Zur Vermeidung von Gebühren für Speicherplatz empfehlen wir, den S3-Bucket-Lebenszyklusregeln die [S3-Bucket-Richtlinie](https://docs.aws.amazon.com/AmazonS3/latest/dev/mpuoverview.html#mpu-abort-incomplete-mpu-lifecycle-config) hinzuzufügen. Diese Richtlinie löscht unvollständige mehrteilige Uploads, die möglicherweise im S3-Bucket gespeichert sind. Weitere Informationen hierzu finden Sie im Abschnitt [Objektlebenszyklusverwaltung](https://docs.aws.amazon.com/AmazonS3/latest/dev/object-lifecycle-mgmt.html).

## Auftrag wird als `failed` angezeigt.
<a name="batch-transform-errors-failed"></a>

Wenn ein Batch-Transformationsauftrag eine Eingabedatei aufgrund eines Problems mit dem Datensatz nicht verarbeiten kann, markiert SageMaker AI den Job als`failed`. Wenn eine Eingabedatei einen ungültigen Datensatz enthält, generiert der Transformationsauftrag für diese Eingabedatei keine Ausgabedatei, da für die transformierten Daten nicht dieselbe Reihenfolge wie in der Eingabedatei beibehalten werden kann. Bei mehrere Eingabedateien in einem Datensatz wird die Verarbeitung der Eingabedateien fortgesetzt, auch wenn der Transformationsauftrag eine Datei nicht verarbeiten kann. Die verarbeiteten Dateien erzeugen dessen ungeachtet verwertbare Ergebnisse.

Wenn Sie eigene Algorithmen verwenden, können Sie Platzhaltertext wie beispielsweise `ERROR` verwenden, wenn der Algorithmus einen fehlerhaften Datensatz in einer Eingabedatei findet. Beispiel: Wenn der letzte Datensatz in einem Datensatz ungültig ist, platziert der Algorithmus anstelle dieses Datensatzes den Platzhaltertext in der Ausgabedatei.