

AWS Data Pipeline ist für Neukunden nicht mehr verfügbar. Bestandskunden von AWS Data Pipeline können den Service weiterhin wie gewohnt nutzen. [Weitere Informationen](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Lokalisieren von Fehlerprotokollen
<a name="dp-error-logs"></a>

In diesem Abschnitt wird erklärt, wie Sie die verschiedenen Protokolle finden, die AWS Data Pipeline geschrieben werden. Anhand dieser Informationen können Sie die Ursache bestimmter Ausfälle und Fehler ermitteln. 

## Pipeline-Protokolle
<a name="dp-pipeline-logs"></a>

Wir empfehlen, Pipelines so zu konfigurieren, dass Protokolldateien an einem persistenten Speicherort erstellt werden, wie im folgenden Beispiel, in dem Sie das `pipelineLogUri` Feld für das `Default` Objekt einer Pipeline verwenden, um zu veranlassen, dass alle Pipeline-Komponenten standardmäßig einen Amazon S3 S3-Protokollspeicherort verwenden (Sie können dies überschreiben, indem Sie einen Protokollspeicherort in einer bestimmten Pipeline-Komponente konfigurieren).

**Anmerkung**  
Task Runner speichert seine Protokolle standardmäßig an einem anderen Speicherort, der möglicherweise nicht verfügbar ist, wenn die Pipeline abgeschlossen ist und die Instanz, auf der Task Runner ausgeführt wird, beendet wird. Weitere Informationen finden Sie unter [Die Task Runner-Protokollierung wird überprüft](dp-how-task-runner-user-managed.md#dp-verify-task-runner).

Um den Protokollspeicherort mithilfe der AWS Data Pipeline CLI in einer Pipeline-JSON-Datei zu konfigurieren, beginnen Sie Ihre Pipeline-Datei mit dem folgenden Text:

```
{ "objects": [
{
  "id":"Default",
  "pipelineLogUri":"s3://amzn-s3-demo-bucket/error_logs"
},
...
```

Nachdem Sie ein Pipeline-Protokollverzeichnis konfiguriert haben, erstellt Task Runner eine Kopie der Protokolle in Ihrem Verzeichnis mit derselben Formatierung und denselben Dateinamen, die im vorherigen Abschnitt über Task Runner-Protokolle beschrieben wurden.

## Hadoop-Job- und Amazon EMR-Schrittprotokolle
<a name="dp-hadoop-logs"></a>

Bei jeder Hadoop-basierten Aktivität wie[HadoopActivity](dp-object-hadoopactivity.md),[HiveActivity](dp-object-hiveactivity.md), oder können [PigActivity](dp-object-pigactivity.md) Sie Hadoop-Jobprotokolle an dem Ort einsehen, der im Runtime-Slot, zurückgegeben wurde. hadoopJobLog [EmrActivity](dp-object-emractivity.md)verfügt über eigene Protokollierungsfunktionen, und diese Protokolle werden an dem von Amazon EMR ausgewählten Speicherort gespeichert und vom Runtime-Slot zurückgegeben. emrStepLog Weitere Informationen finden Sie unter [Protokolldateien anzeigen](https://docs.aws.amazon.com/emr/latest/DeveloperGuide/emr-manage-view-web-log-files.html) im Amazon EMR Developer Guide. 