

**지원 종료 공지:** 2026년 10월 30일에 Amazon Pinpoint에 대한 지원이 AWS 종료됩니다. 2026년 10월 30일 이후에는 Amazon Pinpoint 콘솔 또는 Amazon Pinpoint 리소스(엔드포인트, 세그먼트, 캠페인, 여정, 분석)에 더 이상 액세스할 수 없습니다. 자세한 내용은 [Amazon Pinpoint 지원 종료](https://docs.aws.amazon.com/console/pinpoint/migration-guide)를 참조하세요. **참고:** SMS, 음성, 모바일 푸시, OTP 및 전화번호 검증과 관련된 APIs는이 변경의 영향을 받지 않으며 AWS 최종 사용자 메시징에서 지원됩니다.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon Pinpoint로 엔드포인트 가져오기
<a name="audience-define-import"></a>

Amazon S3 버킷에서 엔드포인트를 가져와서 많은 수의 엔드포인트를 추가하거나 업데이트할 수 있습니다. 엔드포인트 가져오기는 Amazon Pinpoint 외부의 대상에 대한 레코드가 있고 이 정보를 Amazon Pinpoint 프로젝트에 추가하려는 경우에 유용합니다. 이 경우 다음을 수행합니다.

1. 자체 대상 데이터를 기반으로 하는 엔드포인트 정의를 생성합니다.

1. 이 엔드포인트 정의를 하나 이상의 파일에 저장하고 파일을 Amazon S3 버킷에 업로드합니다.

1. 버킷에서 엔드포인트를 가져와서 엔드포인트를 Amazon Pinpoint 프로젝트에 추가합니다.

각 가져오기 작업을 통해 최대 1GB의 데이터를 전송할 수 있습니다. 각 엔드포인트가 4KB 이하인 일반적인 작업에서는 약 250,000개의 엔드포인트를 가져올 수 있습니다. AWS 계정당 최대 2개의 동시 가져오기 작업을 실행할 수 있습니다. 가져오기 작업에 더 많은 대역폭이 필요한 경우에 서비스 할당량 증가 요청을 제출할 수 있습니다 지원. 자세한 내용은 [할당량 증가 요청](quotas.md#quotas-increase) 단원을 참조하십시오.

## 시작하기 전 준비 사항
<a name="audience-define-import-before"></a>

엔드포인트를 가져오려면 먼저 AWS 계정에서 다음 리소스가 필요합니다.
+ Amazon S3 버킷. 버킷을 생성하는 방법은 *Amazon Simple Storage Service 사용 설명서*의 [버킷 생성](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-bucket.html)을 참조하세요.
+ Amazon S3 버킷에 대한 Amazon Pinpoint 읽기 권한을 부여하는 AWS Identity and Access Management (IAM) 역할입니다. Amazon S3 역할을 생성하려면 [엔드포인트 또는 세그먼트를 가져오기 위한 IAM 역할](permissions-import-segment.md) 단원을 참조하십시오.

## 예제
<a name="audience-define-import-examples"></a>

다음 예제에서는 엔드포인트 정의를 Amazon S3 버킷에 추가한 다음 해당 엔드포인트를 Amazon Pinpoint 프로젝트로 가져오는 방법을 보여 줍니다.

### 엔드포인트 정의가 있는 파일
<a name="audience-define-import-examples-files"></a>

Amazon S3 버킷에 추가하는 파일에는 CSV 또는 줄 바꿈으로 구분된 JSON 형식의 엔드포인트 정의가 포함될 수 있습니다. 엔드포인트를 정의하는 데 사용할 수 있는 속성은 *Amazon Pinpoint API 참조*의 [EndpointRequest](https://docs.aws.amazon.com/pinpoint/latest/apireference/apps-application-id-endpoints-endpoint-id.html#apps-application-id-endpoints-endpoint-id-schemas) JSON 스키마를 참조하세요.

------
#### [ CSV ]

다음 예와 같이 CSV 파일로 정의된 엔드포인트를 가져올 수 있습니다.

```
ChannelType,Address,Location.Country,Demographic.Platform,Demographic.Make,User.UserId
SMS,12065550182,CN,Android,LG,example-user-id-1
APNS,1a2b3c4d5e6f7g8h9i0j1a2b3c4d5e6f,US,iOS,Apple,example-user-id-2
EMAIL,john.stiles@example.com,US,iOS,Apple,example-user-id-2
```

첫 번째 줄은 엔드포인트 속성을 포함하는 헤더입니다. `Location.Country`와 같이 점 표기법을 사용하여 중첩 속성을 지정합니다.

후속 줄은 헤더에 있는 각 속성의 값을 제공하여 엔드포인트를 정의합니다.

값에 쉼표 또는 큰따옴표를 포함하려면 `"aaa,bbb"`와 같이 값을 큰따옴표로 묶습니다.

CSV의 값 내에서는 줄 바꿈이 지원되지 않습니다.

------
#### [ JSON ]

다음 예와 같이 줄 바꿈으로 구분된 JSON 파일로 정의된 엔드포인트를 가져올 수 있습니다.

```
{"ChannelType":"SMS","Address":"12065550182","Location":{"Country":"CN"},"Demographic":{"Platform":"Android","Make":"LG"},"User":{"UserId":"example-user-id-1"}}
{"ChannelType":"APNS","Address":"1a2b3c4d5e6f7g8h9i0j1a2b3c4d5e6f","Location":{"Country":"US"},"Demographic":{"Platform":"iOS","Make":"Apple"},"User":{"UserId":"example-user-id-2"}}
{"ChannelType":"EMAIL","Address":"john.stiles@example.com","Location":{"Country":"US"},"Demographic":{"Platform":"iOS","Make":"Apple"},"User":{"UserId":"example-user-id-2"}}
```

이 형식에서 각 줄은 개별 엔드포인트 정의가 포함된 완전한 JSON 객체입니다.

------

### 가져오기 작업 요청
<a name="audience-define-import-examples-jobs"></a>

다음 예제에서는 로컬 파일을 버킷에 업로드하여 엔드포인트 정의를 Amazon S3에 추가하는 방법을 보여줍니다. 그런 다음, 이 예제에서는 엔드포인트 정의를 Amazon Pinpoint 프로젝트로 가져옵니다.

------
#### [ AWS CLI ]

 AWS CLI에서 명령을 실행하여 Amazon Pinpoint를 사용할 수 있습니다.

**Example S3 CP 명령**  
Amazon S3 버킷에 로컬 파일을 업로드하려면 Amazon S3 [https://docs.aws.amazon.com/cli/latest/reference/s3/cp.html](https://docs.aws.amazon.com/cli/latest/reference/s3/cp.html) 명령을 사용합니다.  

```
$ aws s3 cp ./endpoints-file s3://bucket-name/prefix/
```

위치:
+ *./endpoints-file*은 엔드포인트 정의가 포함된 로컬 파일의 파일 경로입니다.
+ *bucket-name/prefix/*는 Amazon S3 버킷의 이름 및 선택 사항으로 버킷의 객체를 계층 구조로 정리하는 데 도움이 되는 접두사입니다. 예를 들어, 유용한 접두사는 `pinpoint/imports/endpoints/`일 수 있습니다.

**Example 가져오기 작업 생성 명령**  
Amazon S3 버킷에서 엔드포인트 정의를 가져오려면 [https://docs.aws.amazon.com/cli/latest/reference/pinpoint/create-import-job.html](https://docs.aws.amazon.com/cli/latest/reference/pinpoint/create-import-job.html) 명령을 사용합니다.  

```
$ aws pinpoint create-import-job \
> --application-id application-id \
> --import-job-request \
> S3Url=s3://bucket-name/prefix/key,\
> RoleArn=iam-import-role-arn,\
> Format=format,\
> RegisterEndpoints=true
```
위치:  
+ *application-id*는 엔드포인트를 가져올 Amazon Pinpoint 프로젝트의 ID입니다.
+ *bucket-name/prefix/key*는 가져올 객체가 하나 이상 포함된 Amazon S3 내의 위치입니다. 이 위치는 개별 객체의 키로 끝나거나, 여러 객체를 한정하는 접두사로 끝날 수 있습니다.
+ *iam-import-role-arn*은 버킷에 Amazon Pinpoint 읽기 액세스를 부여하는 IAM 역할의 Amazon 리소스 이름(ARN)입니다.
+ *format*은 엔드포인트를 정의하는 데 사용한 형식에 따라 `JSON` 또는 `CSV`일 수 있습니다. Amazon S3 위치에 혼합된 형식의 여러 객체가 포함된 경우 Amazon Pinpoint는 지정된 형식과 일치하는 객체만 가져옵니다.
+ *RegisterEndpoints*는 `true` 또는 `false` 중 하나일 수 있습니다. true로 설정하면 엔드포인트 정의를 가져올 경우 가져오기 작업이 Amazon Pinpoint에 엔드포인트를 등록합니다.  
**RegisterEndpoints와 DefineSegments 조합**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/pinpoint/latest/developerguide/audience-define-import.html)
응답에는 가져오기 작업에 대한 세부 정보가 포함되어 있습니다.  

```
{
    "ImportJobResponse": {
        "CreationDate": "2018-05-24T21:26:33.995Z",
        "Definition": {
            "DefineSegment": false,
            "ExternalId": "463709046829",
            "Format": "JSON",
            "RegisterEndpoints": true,
            "RoleArn": "iam-import-role-arn",
            "S3Url": "s3://bucket-name/prefix/key"
        },
        "Id": "d5ecad8e417d498389e1d5b9454d4e0c",
        "JobStatus": "CREATED",
        "Type": "IMPORT"
    }
}
```
응답은 `Id` 속성이 있는 작업 ID를 제공합니다. 이 ID를 사용하여 가져오기 작업의 현재 상태를 확인할 수 있습니다.

**Example 가져오기 작업 Get 명령**  
가져오기 작업의 현재 상태를 확인하려면 `get-import-job` 명령을 사용합니다.  

```
$ aws pinpoint get-import-job \
> --application-id application-id \
> --job-id job-id
```
위치:  
+ *application-id*는 가져오기 작업이 초기화된 Amazon Pinpoint 프로젝트의 ID입니다.
+ *job-id*는 확인할 가져오기 작업의 ID입니다.
이 명령에 대한 응답은 가져오기 작업의 현재 상태를 제공합니다.  

```
{
    "ImportJobResponse": {
        "ApplicationId": "application-id",
        "CompletedPieces": 1,
        "CompletionDate": "2018-05-24T21:26:45.308Z",
        "CreationDate": "2018-05-24T21:26:33.995Z",
        "Definition": {
            "DefineSegment": false,
            "ExternalId": "463709046829",
            "Format": "JSON",
            "RegisterEndpoints": true,
            "RoleArn": "iam-import-role-arn",
            "S3Url": "s3://s3-bucket-name/prefix/endpoint-definitions.json"
        },
        "FailedPieces": 0,
        "Id": "job-id",
        "JobStatus": "COMPLETED",
        "TotalFailures": 0,
        "TotalPieces": 1,
        "TotalProcessed": 3,
        "Type": "IMPORT"
    }
}
```
응답은 `JobStatus` 속성이 있는 작업 상태를 제공합니다.

------
#### [ AWS SDK for Java ]

 AWS SDK for Java에서 제공하는 클라이언트를 사용하여 Java 애플리케이션에서 Amazon Pinpoint API를 사용할 수 있습니다.

**Example 코드**  
엔드포인트 정의가 포함된 파일을 Amazon S3에 업로드하려면 `AmazonS3` 클라이언트의 `putObject` 메서드를 사용합니다.  
엔드포인트를 Amazon Pinpoint 프로젝트로 가져오려면 `CreateImportJobRequest` 객체를 초기화합니다. 그런 다음 이 객체를 `AmazonPinpoint` 클라이언트의 `createImportJob` 메서드에 전달합니다.  

```
package com.amazonaws.examples.pinpoint;

import com.amazonaws.AmazonServiceException;
import com.amazonaws.regions.Regions;
import com.amazonaws.services.pinpoint.AmazonPinpoint;
import com.amazonaws.services.pinpoint.AmazonPinpointClientBuilder;
import com.amazonaws.services.pinpoint.model.CreateImportJobRequest;
import com.amazonaws.services.pinpoint.model.CreateImportJobResult;
import com.amazonaws.services.pinpoint.model.Format;
import com.amazonaws.services.pinpoint.model.GetImportJobRequest;
import com.amazonaws.services.pinpoint.model.GetImportJobResult;
import com.amazonaws.services.pinpoint.model.ImportJobRequest;
import com.amazonaws.services.s3.AmazonS3;
import com.amazonaws.services.s3.AmazonS3ClientBuilder;
import com.amazonaws.services.s3.model.AmazonS3Exception;
import java.io.File;
import java.nio.file.Path;
import java.nio.file.Paths;
import java.util.List;
import java.util.concurrent.TimeUnit;

public class ImportEndpoints {

    public static void main(String[] args) {

        final String USAGE = "\n" +
                "ImportEndpoints - Adds endpoints to an Amazon Pinpoint application by: \n" +
                "1.) Uploading the endpoint definitions to an Amazon S3 bucket. \n" +
                "2.) Importing the endpoint definitions from the bucket to an Amazon Pinpoint " +
                "application.\n\n" +
                "Usage: ImportEndpoints <endpointsFileLocation> <s3BucketName> <iamImportRoleArn> " +
                "<applicationId>\n\n" +
                "Where:\n" +
                "  endpointsFileLocation - The relative location of the JSON file that contains the " +
                "endpoint definitions.\n" +
                "  s3BucketName - The name of the Amazon S3 bucket to upload the JSON file to. If the " +
                "bucket doesn't exist, a new bucket is created.\n" +
                "  iamImportRoleArn - The ARN of an IAM role that grants Amazon Pinpoint read " +
                "permissions to the S3 bucket.\n" +
                "  applicationId - The ID of the Amazon Pinpoint application to add the endpoints to.";

        if (args.length < 1) {
            System.out.println(USAGE);
            System.exit(1);
        }

        String endpointsFileLocation = args[0];
        String s3BucketName = args[1];
        String iamImportRoleArn = args[2];
        String applicationId = args[3];

        Path endpointsFilePath = Paths.get(endpointsFileLocation);
        File endpointsFile = new File(endpointsFilePath.toAbsolutePath().toString());
        uploadToS3(endpointsFile, s3BucketName);

        importToPinpoint(endpointsFile.getName(), s3BucketName, iamImportRoleArn, applicationId);

    }

    private static void uploadToS3(File endpointsFile, String s3BucketName) {

        // Initializes Amazon S3 client.
        final AmazonS3 s3 = AmazonS3ClientBuilder.defaultClient();

        // Checks whether the specified bucket exists. If not, attempts to create one.
        if (!s3.doesBucketExistV2(s3BucketName)) {
            try {
                s3.createBucket(s3BucketName);
                System.out.format("Created S3 bucket %s.\n", s3BucketName);
            } catch (AmazonS3Exception e) {
                System.err.println(e.getErrorMessage());
                System.exit(1);
            }
        }

        // Uploads the endpoints file to the bucket.
        String endpointsFileName = endpointsFile.getName();
        System.out.format("Uploading %s to S3 bucket %s . . .\n", endpointsFileName, s3BucketName);
        try {
            s3.putObject(s3BucketName, "imports/" + endpointsFileName, endpointsFile);
            System.out.println("Finished uploading to S3.");
        } catch (AmazonServiceException e) {
            System.err.println(e.getErrorMessage());
            System.exit(1);
        }
    }

    private static void importToPinpoint(String endpointsFileName, String s3BucketName,
            String iamImportRoleArn, String applicationId) {

        // The S3 URL that Amazon Pinpoint requires to find the endpoints file.
        String s3Url = "s3://" + s3BucketName + "/imports/" + endpointsFileName;

        // Defines the import job that Amazon Pinpoint runs.
        ImportJobRequest importJobRequest = new ImportJobRequest()
                .withS3Url(s3Url)
                .withRegisterEndpoints(true)
                .withRoleArn(iamImportRoleArn)
                .withFormat(Format.JSON);
        CreateImportJobRequest createImportJobRequest = new CreateImportJobRequest()
                .withApplicationId(applicationId)
                .withImportJobRequest(importJobRequest);

        // Initializes the Amazon Pinpoint client.
        AmazonPinpoint pinpointClient = AmazonPinpointClientBuilder.standard()
                .withRegion(Regions.US_EAST_1).build();

        System.out.format("Importing endpoints in %s to Amazon Pinpoint application %s . . .\n",
                endpointsFileName, applicationId);

        try {

            // Runs the import job with Amazon Pinpoint.
            CreateImportJobResult importResult = pinpointClient.createImportJob(createImportJobRequest);

            String jobId = importResult.getImportJobResponse().getId();
            GetImportJobResult getImportJobResult = null;
            String jobStatus = null;

            // Checks the job status until the job completes or fails.
            do {
                getImportJobResult = pinpointClient.getImportJob(new GetImportJobRequest()
                        .withJobId(jobId)
                        .withApplicationId(applicationId));
                jobStatus = getImportJobResult.getImportJobResponse().getJobStatus();
                System.out.format("Import job %s . . .\n", jobStatus.toLowerCase());
                TimeUnit.SECONDS.sleep(3);
            } while (!jobStatus.equals("COMPLETED") && !jobStatus.equals("FAILED"));

            if (jobStatus.equals("COMPLETED")) {
                System.out.println("Finished importing endpoints.");
            } else {
                System.err.println("Failed to import endpoints.");
                System.exit(1);
            }

            // Checks for entries that failed to import.
            // getFailures provides up to 100 of the first failed entries for the job, if
            // any exist.
            List<String> failedEndpoints = getImportJobResult.getImportJobResponse().getFailures();
            if (failedEndpoints != null) {
                System.out.println("Failed to import the following entries:");
                for (String failedEndpoint : failedEndpoints) {
                    System.out.println(failedEndpoint);
                }
            }

        } catch (AmazonServiceException | InterruptedException e) {
            System.err.println(e.getMessage());
            System.exit(1);
        }

    }

}
```

------
#### [ HTTP ]

REST API에 HTTP 요청을 직접 수행하여 Amazon Pinpoint를 사용할 수 있습니다.

**Example S3 객체 PUT 요청**  
엔드포인트 정의를 버킷에 추가하려면 Amazon S3 [PUT 객체](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html) 작업을 사용하고 엔드포인트 정의를 본문으로 제공합니다.  

```
PUT /prefix/key HTTP/1.1
Content-Type: text/plain
Accept: application/json
Host: bucket-name.s3.amazonaws.com
X-Amz-Content-Sha256: c430dc094b0cec2905bc88d96314914d058534b14e2bc6107faa9daa12fdff2d
X-Amz-Date: 20180605T184132Z
Authorization: AWS4-HMAC-SHA256 Credential=AKIAIOSFODNN7EXAMPLE/20180605/us-east-1/s3/aws4_request, SignedHeaders=accept;cache-control;content-length;content-type;host;postman-token;x-amz-content-sha256;x-amz-date, Signature=c25cbd6bf61bd3b3667c571ae764b9bf2d8af61b875cacced95d1e68d91b4170
Cache-Control: no-cache

{"ChannelType":"SMS","Address":"2065550182","Location":{"Country":"CAN"},"Demographic":{"Platform":"Android","Make":"LG"},"User":{"UserId":"example-user-id-1"}}
{"ChannelType":"APNS","Address":"1a2b3c4d5e6f7g8h9i0j1a2b3c4d5e6f","Location":{"Country":"USA"},"Demographic":{"Platform":"iOS","Make":"Apple"},"User":{"UserId":"example-user-id-2"}}
{"ChannelType":"EMAIL","Address":"john.stiles@example.com","Location":{"Country":"USA"},"Demographic":{"Platform":"iOS","Make":"Apple"},"User":{"UserId":"example-user-id-2"}}
```

위치:
+ */prefix/key*는 업로드 후 엔드포인트 정의가 포함될 객체의 접두사 및 키 이름입니다. 접두사를 사용하여 객체를 계층 구조로 정리할 수 있습니다. 예를 들어, 유용한 접두사는 `pinpoint/imports/endpoints/`일 수 있습니다.
+ *bucket-name*은 엔드포인트 정의를 추가할 Amazon S3 버킷의 이름입니다.

**Example 가져오기 작업 POST 요청**  
Amazon S3 버킷에서 엔드포인트 정의를 가져오려면 [가져오기 작업](https://docs.aws.amazon.com/pinpoint/latest/apireference/apps-application-id-jobs-import.html) 리소스에 POST 요청을 실행합니다. 요청에 필수 헤더를 포함시키고 [ImportJobRequest](https://docs.aws.amazon.com/pinpoint/latest/apireference/apps-application-id-jobs-import.html#apps-application-id-jobs-import-schemas) JSON을 본문으로 제공합니다.  

```
POST /v1/apps/application_id/jobs/import HTTP/1.1
Content-Type: application/json
Accept: application/json
Host: pinpoint.us-east-1.amazonaws.com
X-Amz-Date: 20180605T214912Z
Authorization: AWS4-HMAC-SHA256 Credential=AKIAIOSFODNN7EXAMPLE/20180605/us-east-1/mobiletargeting/aws4_request, SignedHeaders=accept;cache-control;content-length;content-type;host;postman-token;x-amz-date, Signature=c25cbd6bf61bd3b3667c571ae764b9bf2d8af61b875cacced95d1e68d91b4170
Cache-Control: no-cache

{
  "S3Url": "s3://bucket-name/prefix/key",
  "RoleArn": "iam-import-role-arn",
  "Format": "format",
  "RegisterEndpoints": true
}
```
위치:  
+ *application-id*는 엔드포인트를 가져올 Amazon Pinpoint 프로젝트의 ID입니다.
+ *bucket-name/prefix/key*는 가져올 객체가 하나 이상 포함된 Amazon S3 내의 위치입니다. 이 위치는 개별 객체의 키로 끝나거나, 여러 객체를 한정하는 접두사로 끝날 수 있습니다.
+ *iam-import-role-arn*은 버킷에 Amazon Pinpoint 읽기 액세스를 부여하는 IAM 역할의 Amazon 리소스 이름(ARN)입니다.
+ *format*은 엔드포인트를 정의하는 데 사용한 형식에 따라 `JSON` 또는 `CSV`일 수 있습니다. Amazon S3 위치에 혼합된 형식의 여러 파일이 포함된 경우 Amazon Pinpoint는 지정된 형식과 일치하는 파일만 가져옵니다.
요청이 성공하면 다음과 비슷한 응답이 수신됩니다.  

```
{
    "Id": "a995ce5d70fa44adb563b7d0e3f6c6f5",
    "JobStatus": "CREATED",
    "CreationDate": "2018-06-05T21:49:15.288Z",
    "Type": "IMPORT",
    "Definition": {
        "S3Url": "s3://bucket-name/prefix/key",
        "RoleArn": "iam-import-role-arn",
        "ExternalId": "external-id",
        "Format": "JSON",
        "RegisterEndpoints": true,
        "DefineSegment": false
    }
}
```
응답은 `Id` 속성이 있는 작업 ID를 제공합니다. 이 ID를 사용하여 가져오기 작업의 현재 상태를 확인할 수 있습니다.

**Example 가져오기 작업 GET 요청**  
가져오기 작업의 현재 상태를 확인하려면 [가져오기 작업](https://docs.aws.amazon.com/pinpoint/latest/apireference/apps-application-id-jobs-import-job-id.html) 리소스에 `GET` 요청을 발행합니다.  

```
GET /v1/apps/application_id/jobs/import/job_id HTTP/1.1
Content-Type: application/json
Accept: application/json
Host: pinpoint.us-east-1.amazonaws.com
X-Amz-Date: 20180605T220744Z
Authorization: AWS4-HMAC-SHA256 Credential=AKIAIOSFODNN7EXAMPLE/20180605/us-east-1/mobiletargeting/aws4_request, SignedHeaders=accept;cache-control;content-type;host;postman-token;x-amz-date, Signature=c25cbd6bf61bd3b3667c571ae764b9bf2d8af61b875cacced95d1e68d91b4170
Cache-Control: no-cache
```
위치:  
+ *application\$1id*는 가져오기 작업이 초기화된 Amazon Pinpoint 프로젝트의 ID입니다.
+ *job\$1id*는 확인할 가져오기 작업의 ID입니다.
요청이 성공하면 다음과 비슷한 응답이 수신됩니다.  

```
{
    "ApplicationId": "application_id",
    "Id": "70a51b2cf442447492d2c8e50336a9e8",
    "JobStatus": "COMPLETED",
    "CompletedPieces": 1,
    "FailedPieces": 0,
    "TotalPieces": 1,
    "CreationDate": "2018-06-05T22:04:49.213Z",
    "CompletionDate": "2018-06-05T22:04:58.034Z",
    "Type": "IMPORT",
    "TotalFailures": 0,
    "TotalProcessed": 3,
    "Definition": {
        "S3Url": "s3://bucket-name/prefix/key.json",
        "RoleArn": "iam-import-role-arn",
        "ExternalId": "external-id",
        "Format": "JSON",
        "RegisterEndpoints": true,
        "DefineSegment": false
    }
}
```
응답은 `JobStatus` 속성이 있는 작업 상태를 제공합니다.

------

## 관련 정보
<a name="audience-define-import-related"></a>

지원되는 HTTP 메서드 및 요청 파라미터를 비롯하여, Amazon Pinpoint API의 가져오기 작업 리소스에 대한 자세한 내용은 *Amazon Pinpoint API 참조*의 [가져오기 작업](https://docs.aws.amazon.com/pinpoint/latest/apireference/apps-application-id-jobs-import.html) 섹션을 참조하세요.