ItemReader (지도) - AWS Step Functions

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

ItemReader (지도)

ItemReader필드는 데이터세트와 해당 위치를 지정하는 JSON 객체입니다. Distributed Map 상태는 이 데이터 세트를 입력으로 사용합니다. 다음 예제는 데이터세트가 Amazon S3 버킷에 저장된 CSV 파일인 경우 ItemReader 필드의 구문을 보여줍니다.

"ItemReader": { "ReaderConfig": { "InputType": "CSV", "CSVHeaderLocation": "FIRST_ROW" }, "Resource": "arn:aws:states:::s3:getObject", "Parameters": { "Bucket": "amzn-s3-demo-bucket", "Key": "csvDataset/ratings.csv" } }
작은 정보

Workflow Studio의 항목 소스 필드에 데이터 세트와 해당 위치를 지정합니다.

필드 콘텐츠 ItemReader

데이터 세트에 따라 ItemReader 필드 콘텐츠가 달라집니다. 예를 들어 데이터셋이 워크플로의 이전 단계에서 전달된 JSON 배열인 경우 ItemReader 필드는 생략됩니다. 데이터 세트가 Amazon S3 데이터 소스이면 이 필드에는 다음 하위 필드가 포함됩니다.

ReaderConfig

다음 JSON 세부 정보를 지정하는 객체:

  • InputType

    파일, 객체, CSV JSON 파일 또는 Amazon S3 인벤토리 목록과 같은 Amazon S3 데이터 소스의 유형을 지정합니다. Workflow Studio의 항목 소스 필드 아래에 있는 Amazon S3 항목 소스 드롭다운 목록에서 입력 유형을 선택할 수 있습니다.

  • CSVHeaderLocation

    참고

    CSV파일을 데이터세트로 사용하는 경우에만 이 필드를 지정해야 합니다.

    다음 값 중 하나를 수락하여 열 헤더 위치를 지정합니다.

    중요

    현재 Step Functions는 최대 10KB의 CSV 헤더를 지원합니다.

    • FIRST_ROW - 파일의 첫 번째 줄이 헤더이면 이 옵션을 사용합니다.

    • GIVEN - 상태 시스템 정의 내에 헤더를 지정하려면 이 옵션을 사용합니다. CSV파일에 다음 데이터가 포함된 경우를 예로 들 수 있습니다.

      1,307,3.5,1256677221 1,481,3.5,1256677456 1,1091,1.5,1256677471 ...

      다음 JSON 배열을 CSV 헤더로 제공하십시오.

      "ItemReader": { "ReaderConfig": { "InputType": "CSV", "CSVHeaderLocation": "GIVEN", "CSVHeaders": [ "userId", "movieId", "rating", "timestamp" ] } }
    작은 정보

    Workflow Studio의 항목 소스 필드에 있는 추가 구성에서 이 옵션을 찾을 수 있습니다.

  • MaxItems

    Map 상태로 전달되는 데이터 항목 수를 제한합니다. 예를 들어, 1000개의 행이 포함된 CSV 파일을 제공하고 제한을 100개로 지정한다고 가정해 보겠습니다. 그러면 인터프리터는 행 100개 Map 상태에 전달합니다. Map 상태는 헤더 행 다음부터 순차적으로 항목을 처리합니다.

    기본적으로 Map 상태는 지정된 데이터 세트의 모든 항목을 반복합니다.

    참고

    현재는 한도를 최대 100,000,000개까지 지정할 수 있습니다. Distributed Map 상태는 이 한도를 초과하는 항목을 읽지 않습니다.

    작은 정보

    Workflow Studio의 항목 소스 필드에 있는 추가 구성에서 이 옵션을 찾을 수 있습니다.

    또는 Distributed Map 상태 입력에서 기존 키-값 페어의 참조 경로를 지정할 수 있습니다. 이 경로는 양의 정수로 확인되어야 합니다. MaxItemsPath 하위 필드에 참조 경로를 지정합니다.

    중요

    MaxItems 또는 MaxItemsPath 하위 필드를 지정할 수 있지만 둘 다 함께 지정할 수는 없습니다.

Resource

지정된 데이터세트에 따라 Step API Functions가 호출해야 하는 Amazon S3 작업입니다.

Parameters

데이터세트가 저장되는 Amazon S3 버킷 이름과 객체 키를 지정하는 객체입니다. JSON

중요

Amazon S3 버킷이 동일한 위치에 있는지 확인하십시오. AWS 계정 그리고 AWS 리전 스테이트 머신으로 사용하십시오.

데이터 세트 예제

다음 옵션 중 하나를 데이터 세트로 지정할 수 있습니다.

중요

Step Functions에는 사용하는 Amazon S3 데이터 세트에 액세스할 수 있는 적절한 권한이 필요합니다. 데이터세트 IAM 정책에 대한 자세한 내용은 을 참조하십시오IAM데이터세트 정책.

분산 맵 상태는 워크플로의 이전 단계에서 전달된 JSON 입력을 받아들일 수 있습니다. 이 입력은 배열이거나 특정 노드 내의 배열을 포함해야 합니다. 배열이 포함된 노드를 선택하려면 ItemsPath (맵) 필드를 사용하면 됩니다.

배열의 개별 항목을 처리하기 위해 Distributed Map 상태는 배열 항목마다 하위 워크플로 실행을 시작합니다. 다음 탭에서는 Map 상태에 전달된 입력과 하위 워크플로 실행에 대한 해당 입력의 예제를 보여줍니다.

참고

데이터셋이 이전 단계의 JSON 배열인 경우 Step Functions는 ItemReader 필드를 생략합니다.

Input passed to the Map state

세 개의 항목으로 JSON 구성된 다음과 같은 배열을 생각해 보십시오.

"facts": [ { "verdict": "true", "statement_date": "6/11/2008", "statement_source": "speech" }, { "verdict": "false", "statement_date": "6/7/2022", "statement_source": "television" }, { "verdict": "mostly-true", "statement_date": "5/18/2016", "statement_source": "news" } ]
Input passed to a child workflow execution

Distributed Map 상태는 하위 워크플로 실행 3개를 시작합니다. 각 실행은 배열 항목을 입력으로 수신합니다. 다음 예제에서는 하위 워크플로 실행에서 수신한 입력을 보여줍니다.

{ "verdict": "true", "statement_date": "6/11/2008", "statement_source": "speech" }

Distributed Map 상태는 Amazon S3 버킷에 저장된 객체를 반복할 수 있습니다. 워크플로 실행이 Map 상태에 도달하면 Step Functions가 ListObjectsV2 API 작업을 호출하여 Amazon S3 객체 메타데이터의 배열을 반환합니다. 이 배열의 각 항목에는 버킷에 저장된 데이터에 대한 데이터 (예: ETagKey) 가 포함됩니다.

배열의 개별 항목을 처리하기 위해 Distributed Map 상태는 하위 워크플로 실행을 시작합니다. 예를 들어 Amazon S3 버킷에 이미지 100개가 포함되어 있다고 가정해보겠습니다. 그러면 ListObjectsV2 API 작업을 호출한 후 반환되는 배열에는 100개의 항목이 포함됩니다. 그런 다음 Distributed Map 상태는 하위 워크플로 실행 100개를 시작하여 각 배열 항목을 처리합니다.

참고
  • 현재 Step Functions에는 Amazon S3 콘솔을 사용하여 특정 Amazon S3 버킷에 만든 각 폴더에 대한 항목도 포함되어 있습니다. 이로 인해 Distributed Map 상태에서 추가 하위 워크플로 실행을 시작합니다. 폴더에 추가 하위 워크플로 실행을 만들지 않으려면 다음을 사용하는 것이 좋습니다. AWS CLI 폴더를 만들려면 자세한 내용은 의 고급 Amazon S3 명령을 참조하십시오. AWS Command Line Interface 사용 설명서.

  • Step Functions에는 사용하는 Amazon S3 데이터 세트에 액세스할 수 있는 적절한 권한이 필요합니다. 데이터세트 IAM 정책에 대한 자세한 내용은 을 참조하십시오IAM데이터세트 정책.

다음 탭에서는 이 데이터 세트의 하위 워크플로 실행에 전달된 ItemReader 필드 구문과 입력의 예제를 보여줍니다.

ItemReader syntax

이 예시에서는 Amazon S3 버킷에 이름이 지정된 processData 접두사 내에 이미지, JSON 파일 및 객체를 포함하는 데이터를 구성했습니다. amzn-s3-demo-bucket

"ItemReader": { "Resource": "arn:aws:states:::s3:listObjectsV2", "Parameters": { "Bucket": "amzn-s3-demo-bucket", "Prefix": "processData" } }
Input passed to a child workflow execution

Distributed Map 상태는 Amazon S3 버킷에 있는 항목 수만큼 하위 워크플로 실행을 시작합니다. 다음 예제에서는 하위 워크플로 실행에서 수신한 입력을 보여줍니다.

{ "Etag": "\"05704fbdccb224cb01c59005bebbad28\"", "Key": "processData/images/n02085620_1073.jpg", "LastModified": 1668699881, "Size": 34910, "StorageClass": "STANDARD" }

분산 맵 상태는 Amazon S3 버킷에 저장된 JSON 파일을 데이터세트로 받아들일 수 있습니다. JSON파일에는 배열이 포함되어야 합니다.

워크플로 실행이 Map 상태에 도달하면 Step Functions가 GetObjectAPI작업을 호출하여 지정된 JSON 파일을 가져옵니다. 그러면 Map 상태가 배열의 각 항목을 반복하고 항목마다 하위 워크플로 실행을 시작합니다. 예를 들어, JSON 파일에 1000개의 배열 항목이 포함된 경우 Map 상태는 1,000개의 하위 워크플로 실행을 시작합니다.

참고
  • 하위 워크플로 실행을 시작하는 데 사용되는 실행 입력은 256KB를 초과할 수 없습니다. 하지만 Step Functions에서는 CSV 또는 JSON 파일에서 최대 8MB의 항목을 읽을 수 있도록 지원하고 옵션 ItemSelector 필드를 적용하여 항목 크기를 줄일 수 있습니다.

  • 현재 Step Functions는 Amazon S3 인벤토리 보고서에서 개별 파일 최대 크기로 10GB를 지원합니다. 하지만 Step Functions는 각 개별 파일이 10GB 미만이면 10GB 넘게 처리할 수 있습니다.

  • Step Functions에는 사용하는 Amazon S3 데이터 세트에 액세스할 수 있는 적절한 권한이 필요합니다. 데이터세트 IAM 정책에 대한 자세한 내용은 을 참조하십시오IAM데이터세트 정책.

다음 탭에서는 이 데이터 세트의 하위 워크플로 실행에 전달된 ItemReader 필드 구문과 입력의 예제를 보여줍니다.

이 예시에서는 이름이 지정된 JSON factcheck.json 파일이 있다고 가정해 보겠습니다. 이 파일은 Amazon S3 버킷의 jsonDataset 접두사 내에 저장되었습니다. 다음은 JSON 데이터셋의 예시입니다.

[ { "verdict": "true", "statement_date": "6/11/2008", "statement_source": "speech" }, { "verdict": "false", "statement_date": "6/7/2022", "statement_source": "television" }, { "verdict": "mostly-true", "statement_date": "5/18/2016", "statement_source": "news" }, ... ]
ItemReader syntax
"ItemReader": { "Resource": "arn:aws:states:::s3:getObject", "ReaderConfig": { "InputType": "JSON" }, "Parameters": { "Bucket": "amzn-s3-demo-bucket", "Key": "jsonDataset/factcheck.json" } }
Input to a child workflow execution

분산 맵 상태는 파일에 있는 배열 항목 수만큼 하위 워크플로 실행을 시작합니다. JSON 다음 예제에서는 하위 워크플로 실행에서 수신한 입력을 보여줍니다.

{ "verdict": "true", "statement_date": "6/11/2008", "statement_source": "speech" }

분산 맵 상태는 Amazon S3 버킷에 저장된 CSV 파일을 데이터세트로 받아들일 수 있습니다. CSV파일을 데이터세트로 사용하는 경우 CSV 열 헤더를 지정해야 합니다. CSV헤더를 지정하는 방법에 대한 자세한 내용은 을 참조하십시오필드 콘텐츠 ItemReader .

Step Functions는 다음 규칙에 따라 CSV 파일을 파싱합니다.

  • 쉼표 (,) 는 필드를 구분하는 구분 기호입니다.

  • 줄 바꿈은 레코드를 구분하는 구분 기호입니다.

  • 필드는 문자열로 취급됩니다. 데이터 유형 변환의 경우 ItemSelector (지도)에서 States.StringToJson 내장 함수를 사용합니다.

  • 문자열을 묶을 때는 큰따옴표 (” “) 가 필요하지 않습니다. 그러나 큰따옴표로 묶인 문자열에는 레코드 구분자로 사용되지 않고 쉼표와 줄 바꿈이 포함될 수 있습니다.

  • 큰따옴표를 반복해서 따옴표를 보존할 수 있습니다.

  • 행의 필드 수가 헤더의 필드 수보다 적은 경우 Step Functions는 누락된 값에 대해 빈 문자열을 제공합니다.

  • 행의 필드 수가 헤더의 필드 수보다 많으면 Step Functions는 추가 필드를 건너뛰습니다.

Step Functions가 CSV 파일을 파싱하는 방법에 대한 자세한 내용은 을 참조하십시오Example of parsing an input CSV file.

워크플로 실행이 Map 상태에 도달하면 Step Functions가 GetObjectAPI작업을 호출하여 지정된 CSV 파일을 가져옵니다. 그러면 Map 상태가 CSV 파일의 각 행을 반복하고 하위 워크플로 실행을 시작하여 각 행의 항목을 처리합니다. 예를 들어 100개의 행이 포함된 CSV 파일을 입력으로 제공한다고 가정해 보겠습니다. 그러면 인터프리터에서 각 행을 Map 상태에 전달합니다. Map 상태는 헤더 행 다음부터 순차적으로 항목을 처리합니다.

참고
  • 하위 워크플로 실행을 시작하는 데 사용되는 실행 입력은 256KB를 초과할 수 없습니다. 하지만 Step Functions에서는 CSV 또는 JSON 파일에서 최대 8MB의 항목을 읽을 수 있도록 지원하고 옵션 ItemSelector 필드를 적용하여 항목 크기를 줄일 수 있습니다.

  • 현재 Step Functions는 Amazon S3 인벤토리 보고서에서 개별 파일 최대 크기로 10GB를 지원합니다. 하지만 Step Functions는 각 개별 파일이 10GB 미만이면 10GB 넘게 처리할 수 있습니다.

  • Step Functions에는 사용하는 Amazon S3 데이터 세트에 액세스할 수 있는 적절한 권한이 필요합니다. 데이터세트 IAM 정책에 대한 자세한 내용은 을 참조하십시오IAM데이터세트 정책.

다음 탭에서는 이 데이터 세트의 하위 워크플로 실행에 전달된 ItemReader 필드 구문과 입력의 예제를 보여줍니다.

ItemReader syntax

예를 들어 이름이 지정된 CSV ratings.csv 파일이 있다고 가정해 보겠습니다. 그런 다음 Amazon S3 버킷의 csvDataset 접두사 내에 이 파일을 저장했습니다.

{ "ItemReader": { "ReaderConfig": { "InputType": "CSV", "CSVHeaderLocation": "FIRST_ROW" }, "Resource": "arn:aws:states:::s3:getObject", "Parameters": { "Bucket": "amzn-s3-demo-bucket", "Key": "csvDataset/ratings.csv" } } }
Input to a child workflow execution

분산 맵 상태는 파일에 있는 행 수만큼 하위 워크플로 실행을 시작합니다. 단, CSV 파일에 있는 경우 헤더 행은 제외됩니다. 다음 예제에서는 하위 워크플로 실행에서 수신한 입력을 보여줍니다.

{ "rating": "3.5", "movieId": "307", "userId": "1", "timestamp": "1256677221" }

Distributed Map 상태는 Amazon S3 버킷에 저장된 Amazon S3 인벤토리 매니페스트 파일을 데이터 세트로 허용할 수 있습니다.

워크플로 실행이 Map 상태에 도달하면 Step Functions는 GetObjectAPI작업을 호출하여 지정된 Amazon S3 인벤토리 매니페스트 파일을 가져옵니다. 그런 다음 Map 상태는 인벤토리의 객체를 반복하여 Amazon S3 인벤토리 객체 메타데이터 배열을 반환합니다.

참고
  • 현재 Step Functions는 Amazon S3 인벤토리 보고서에서 개별 파일 최대 크기로 10GB를 지원합니다. 하지만 Step Functions는 각 개별 파일이 10GB 미만이면 10GB 넘게 처리할 수 있습니다.

  • Step Functions에는 사용하는 Amazon S3 데이터 세트에 액세스할 수 있는 적절한 권한이 필요합니다. 데이터세트 IAM 정책에 대한 자세한 내용은 을 참조하십시오. IAM데이터세트 정책

다음은 CSV 형식의 재고 파일 예시입니다. 이 파일에는 amzn-s3-demo-source-bucket이라는 Amazon S3 버킷에 저장되어 있는 csvDatasetimageDataset 객체가 포함되어 있습니다.

"amzn-s3-demo-source-bucket","csvDataset/","0","2022-11-16T00:27:19.000Z" "amzn-s3-demo-source-bucket","csvDataset/titles.csv","3399671","2022-11-16T00:29:32.000Z" "amzn-s3-demo-source-bucket","imageDataset/","0","2022-11-15T20:00:44.000Z" "amzn-s3-demo-source-bucket","imageDataset/n02085620_10074.jpg","27034","2022-11-15T20:02:16.000Z" ...
중요

현재 Step Functions는 사용자 정의 Amazon S3 인벤토리 보고서를 데이터 세트로 지원하지 않습니다. 또한 Amazon S3 인벤토리 보고서의 출력 형식이 다음과 같은지 확인해야 CSV 합니다. Amazon S3 인벤토리 및 설정 방법에 대한 자세한 내용은 Amazon S3 사용 설명서Amazon S3 인벤토리를 참조하세요.

다음 인벤토리 매니페스트 파일 예제는 인벤토리 객체 CSV 메타데이터의 헤더를 보여줍니다.

{ "sourceBucket" : "amzn-s3-demo-source-bucket", "destinationBucket" : "arn:aws:s3:::amzn-s3-demo-inventory", "version" : "2016-11-30", "creationTimestamp" : "1668560400000", "fileFormat" : "CSV", "fileSchema" : "Bucket, Key, Size, LastModifiedDate", "files" : [ { "key" : "amzn-s3-demo-bucket/destination-prefix/data/20e55de8-9c21-45d4-99b9-46c732000228.csv.gz", "size" : 7300, "MD5checksum" : "a7ff4a1d4164c3cd55851055ec8f6b20" } ] }

다음 탭에서는 이 데이터 세트의 하위 워크플로 실행에 전달된 ItemReader 필드 구문과 입력의 예제를 보여줍니다.

ItemReader syntax
{ "ItemReader": { "ReaderConfig": { "InputType": "MANIFEST" }, "Resource": "arn:aws:states:::s3:getObject", "Parameters": { "Bucket": "amzn-s3-demo-destination-bucket", "Key": "destination-prefix/amzn-s3-demo-bucket/config-ID/YYYY-MM-DDTHH-MMZ/manifest.json" } } }
Input to a child workflow execution
{ "LastModifiedDate": "2022-11-16T00:29:32.000Z", "Bucket": "amzn-s3-demo-source-bucket", "Size": "3399671", "Key": "csvDataset/titles.csv" }

Amazon S3 인벤토리 보고서를 구성하는 동안에 선택한 필드에 따라 manifest.json 파일 콘텐츠는 표시된 예제와 다를 수 있습니다.

IAM데이터세트 정책

Step Functions 콘솔로 워크플로를 생성하면 Step Functions가 워크플로 정의의 리소스를 기반으로 IAM 정책을 자동으로 생성할 수 있습니다. 이러한 정책에는 상태 시스템 역할이 분산 맵 상태에 대한 StartExecution API 작업을 호출하도록 허용하는 데 필요한 최소한의 권한이 포함됩니다. 이러한 정책에는 Step Functions가 액세스하는 데 필요한 최소 권한도 포함됩니다. AWS 리소스 (예: Amazon S3 버킷, 객체, Lambda 함수 등) 정책에 필요한 권한만 포함하는 것이 좋습니다. IAM 예를 들어 워크플로에 분산 모드의 Map 상태가 포함된 경우 정책 범위를 데이터 세트가 포함된 특정 Amazon S3 버킷과 폴더로 좁힙니다.

중요

분산 맵 상태 입력에 기존 키-값 쌍에 대한 참조 경로를 사용하여 Amazon S3 버킷과 객체 또는 접두사를 지정하는 경우 워크플로에 대한 IAM 정책을 업데이트해야 합니다. 정책 범위를 런타임 시 경로에서 확인하는 버킷과 객체 이름으로 좁히세요.

다음 IAM 정책 예제는 ListObjectsV2와 GetObjectAPI작업을 사용하여 Amazon S3 데이터 세트에 액세스하는 데 필요한 최소한의 권한을 부여합니다.

예 IAMAmazon S3 객체를 데이터세트로 사용하는 정책

다음 예제는 라는 Amazon S3 버킷에 구성된 객체에 액세스할 수 processImages 있는 최소 권한을 부여하는 IAM 정책을 보여줍니다amzn-s3-demo-bucket.

{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::amzn-s3-demo-bucket" ], "Condition": { "StringLike": { "s3:prefix": [ "processImages" ] } } } ] }
예 IAM데이터세트로서의 CSV 파일에 대한 정책

다음 예시는 이름이 지정된 CSV ratings.csv 파일에 액세스할 수 있는 최소 권한을 부여하는 IAM 정책을 보여줍니다.

{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject" ], "Resource": [ "arn:aws:s3:::amzn-s3-demo-bucket/csvDataset/ratings.csv" ] } ] }
예 IAMAmazon S3 인벤토리를 데이터 세트로 사용하는 정책

다음 예는 Amazon S3 인벤토리 보고서에 액세스할 수 있는 최소 권한을 부여하는 IAM 정책을 보여줍니다.

{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject" ], "Resource": [ "arn:aws:s3:::destination-prefix/amzn-s3-demo-bucket/config-ID/YYYY-MM-DDTHH-MMZ/manifest.json", "arn:aws:s3:::destination-prefix/amzn-s3-demo-bucket/config-ID/data/*" ] } ] }