

AWS Data Pipeline 는 더 이상 신규 고객이 사용할 수 없습니다. 의 기존 고객은 평소와 같이 서비스를 계속 사용할 AWS Data Pipeline 수 있습니다. [자세히 알아보기](https://aws.amazon.com/blogs/big-data/migrate-workloads-from-aws-data-pipeline/)

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 오류 로그 찾기
<a name="dp-error-logs"></a>

이 섹션에서는가 AWS Data Pipeline 작성하는 다양한 로그를 찾는 방법을 설명합니다.이 로그를 사용하여 특정 실패 및 오류의 원인을 확인할 수 있습니다.

## 파이프라인 로그
<a name="dp-pipeline-logs"></a>

영구적인 위치에 로그 파일을 생성하도록 파이프라인을 구성할 것을 권장하며, 이에 대한 다음 예제에서 `pipelineLogUri`필드를 파이프라인의 `Default`객체에서 사용하여 모든 파이프라인 구성요소가 기본적으로 Amazon S3 로그 위치를 사용하게 합니다(특정 파이프라인 구성요소에 로그 위치를 구성하여 이것을 다시 정의할 수 있음).

**참고**  
Task Runner는 기본적으로 다른 위치에 그 로그를 저장하는데, 이것은 파이프라인이 끝나고 Task Runner를 실행하는 인스턴스가 종료될 때는 사용할 수 없습니다. 자세한 내용은 [Task Runner 로깅 확인](dp-how-task-runner-user-managed.md#dp-verify-task-runner) 단원을 참조하십시오.

파이프라인 JSON 파일의 AWS Data Pipeline CLI를 사용하여 로그 위치를 구성하려면 다음 텍스트로 파이프라인 파일을 시작합니다.

```
{ "objects": [
{
  "id":"Default",
  "pipelineLogUri":"s3://amzn-s3-demo-bucket/error_logs"
},
...
```

파이프라인 로그 디렉터리가 구성되면 Task Runner가 디렉터리에 로그 사본을 생성하는데, Task Runner 로그에 관한 앞 단원에서 설명한 것과 동일한 형식과 파일 이름을 사용합니다.

## Hadoop 작업 및 Amazon EMR 단계 로그
<a name="dp-hadoop-logs"></a>

[HadoopActivity](dp-object-hadoopactivity.md), [HiveActivity](dp-object-hiveactivity.md), [PigActivity](dp-object-pigactivity.md)등의 Hadoop 기반 활동으로 실행 시간 슬롯, hadoopJobLog에서 반환되는 위치에서 Hadoop 작업 로그를 볼 수 있습니다. [EmrActivity](dp-object-emractivity.md)에는 자체 로깅 기능이 있으며, 이러한 로그는 Amazon EMR이 선택하고 실행 시간 슬롯, emrStepLog가 반환하는 위치를 사용하여 저장됩니다. 자세한 내용은 Amazon EMR 개발자 안내서의 [로그 파일 보기](https://docs.aws.amazon.com/emr/latest/DeveloperGuide/emr-manage-view-web-log-files.html)를 참조하십시오.