기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon에서 교육 정보를 SageMaker 제공하는 방법
이 섹션에서는 교육 데이터, 하이퍼파라미터 및 기타 구성 정보와 같은 교육 정보를 Docker 컨테이너에서 사용할 수 있는 방법을 SageMaker 설명합니다.
모델 교육을 CreateTrainingJob
SageMaker 시작하라는 요청을 보낼 때는 교육 알고리즘이 포함된 Docker 이미지의 Amazon Elastic 컨테이너 레지스트리 (Amazon ECR) 경로를 지정합니다. 또한 교육 데이터가 저장되는 Amazon Simple Storage 서비스 (Amazon S3) 위치와 알고리즘별 파라미터를 지정합니다. SageMaker 훈련 알고리즘이 이 정보를 사용할 수 있도록 Docker 컨테이너에 이 정보를 제공합니다. 이 단원은 Docker 컨테이너에서 이 정보를 사용 가능하도록 하는 방법을 설명합니다. 학습 작업 생성에 대한 자세한 정보는 CreateTrainingJob
단원을 참조하십시오. SageMaker 컨테이너가 정보를 구성하는 방식에 대한 자세한 내용은 을 참조하십시오 SageMaker 학습 및 추론 툴킷 사용 .
하이퍼파라미터
SageMaker CreateTrainingJob
요청의 하이퍼파라미터를 파일의 Docker 컨테이너에서 사용할 수 있도록 합니다/opt/ml/input/config/hyperparameters.json
.
다음은 hyperparameters.json
의 하이퍼파라미터 구성의 예로서 XGBoost를 위한 CreateTrainingJob
작업에서 num_round
및 eta
하이퍼파라미터를 지정합니다.
{ "num_round": "128", "eta": "0.001" }
SageMaker 내장 XGBoost 알고리즘에 사용할 수 있는 하이퍼파라미터의 전체 목록은 XGBoost 하이퍼파라미터를 참조하십시오.
조정할 수 있는 하이퍼파라미터는 학습 중인 알고리즘에 따라 달라집니다. 내장 알고리즘에 사용할 수 있는 하이퍼파라미터 목록을 보려면 Amazon SageMaker SageMaker 내장 알고리즘 사용 또는 사전 학습된 모델의 알고리즘 링크 아래에 있는 하이퍼파라미터 목록에서 해당 하이퍼파라미터 목록을 찾아보십시오.
환경 변수
SageMaker 컨테이너에 다음 환경 변수를 설정합니다.
-
TRAINING_JOB_NAME -
CreateTrainingJob
요청의TrainingJobName
파라미터에 지정됩니다. -
TRAINING_JOB_ARN -
CreateTrainingJob
응답에서TrainingJobArn
로서 반환되는 학습 작업의 Amazon 리소스 이름(ARN). -
CreateTrainingJob
요청의 환경 파라미터에 지정된 모든 환경 변수.
입력 데이터 구성
SageMaker CreateTrainingJob
요청의 InputDataConfig
파라미터에 있는 데이터 채널 정보를 Docker 컨테이너의 /opt/ml/input/config/inputdataconfig.json
파일에서 사용할 수 있도록 합니다.
예를 들어 요청 내에서 3개의 데이터 채널(train
, evaluation
및 validation
)을 지정한다고 가정합니다. SageMaker에서는 다음 JSON을 제공합니다.
{ "train" : {"ContentType": "trainingContentType", "TrainingInputMode": "File", "S3DistributionType": "FullyReplicated", "RecordWrapperType": "None"}, "evaluation" : {"ContentType": "evalContentType", "TrainingInputMode": "File", "S3DistributionType": "FullyReplicated", "RecordWrapperType": "None"}, "validation" : {"TrainingInputMode": "File", "S3DistributionType": "FullyReplicated", "RecordWrapperType": "None"} }
참고
SageMaker 이전 예와 같이 각 데이터 채널에 대한 관련 정보 (예: 채널 이름 및 콘텐츠 유형) 만 컨테이너에 제공합니다. S3DistributionType
EFS 또는 F를 입력 데이터 소스로 지정하는 FullyReplicated
SxLustre 것처럼 설정됩니다.
학습 데이터
CreateTrainingJob
요청의 AlgorithmSpecification
에 있는 TrainingInputMode
파라미터는 컨테이너에서 학습 데이터세트를 사용하는 방법을 지정합니다. 다음의 입력 모드를 이용할 수 있습니다.
-
File
Mode(모드)File
모드를TrainingInputMode
값으로 사용하는 경우 컨테이너에 다음 파라미터를 SageMaker 설정합니다.-
TrainingInputMode
파라미터는inputdataconfig.json
에 “파일”로서 기록됩니다. -
데이터 채널 디렉터리는
/opt/ml/input/data/
에 기록됩니다.channel_name
File
모드를 사용하는 경우 각 채널에 대한 디렉터리를 SageMaker 생성합니다. 예를 들어,training
validation
, 라는 이름의 채널 3개가 있는 경우 Docker 컨테이너에 다음 세 개의 디렉터리를 SageMaker 만듭니다.testing
-
/opt/ml/input/data/training
-
/opt/ml/input/data/validation
-
/opt/ml/input/data/testing
File
모드는 또한 다음의 데이터 소스를 지원합니다.-
Amazon Simple Storage Service(S3)
-
Amazon Elastic File System(Amazon EFS)
-
Amazon FSx for Lustre
참고
Amazon EFS 및 Amazon FSx와 같은 파일 시스템 데이터 소스를 사용하는 채널은
File
모드를 사용해야 합니다. 이 경우 채널에 제공된 디렉터리 경로가/opt/ml/input/data/
에 마운트됩니다.channel_name
-
-
FastFile
Mode(모드)FastFile
mode를 Y로 사용하는TrainingInputNodeParameter
경우 SageMaker 컨테이너에 다음 매개변수를 설정합니다.-
File
모드와 마찬가지로FastFile
모드에서TrainingInputMode
파라미터는inputdataconfig.json
에 “파일”로 기록됩니다. -
데이터 채널 디렉터리는
/opt/ml/input/data/
에 기록됩니다.channel_name
FastFile
모드는 다음의 데이터 소스를 지원합니다.-
Amazon S3
FastFile
모드를 사용하면 채널 디렉터리가 읽기 전용 권한으로 마운트됩니다.과거에는
File
모드가FastFile
모드보다 우선했습니다. 이전 버전과의 호환성을 보장하기 위해File
모드를 지원하는 알고리즘은TrainingInputMode
파라미터가inputdataconfig.json.
에서File
로 설정되어 있는 한FastFile
모드와 원활하게 작동할 수 있습니다.참고
FastFile
모드를 사용하는 채널은 “S3Prefix”의S3DataType
을 사용해야 합니다.FastFile
모드는 Amazon S3 객체를 폴더로 그룹화하기 위한 구분 기호로 슬래시(/
) 를 사용하는 폴더 보기를 제공합니다.S3Uri
접두사는 폴더 이름의 일부와 일치하지 않아야 합니다. 예를 들어, Amazon S3 데이터세트에s3://my-bucket/train-01/data.csv
가/이 포함되어 있는 경우,s3://my-bucket/train
나s3://my-bucket/train-01
중 어느 것도S3Uri
접두사로 사용할 수 없습니다.폴더에 해당하는 채널을 정의하려면 뒤에 슬래시를 사용하는 것이 좋습니다.
train-01
폴더의s3://my-bucket/train-01/
채널을 예로 들 수 있습니다. 뒤따르는 슬래시가 없으면 다른s3://my-bucket/train-011/
폴더나s3://my-bucket/train-01.txt/
파일이 있는 경우 채널이 모호해집니다. -
-
Pipe
Mode(모드)-
inputdataconfig.json
에 기록된TrainingInputMode
파라미터: “Pipe” -
Docker 컨테이너의 데이터 채널 디렉터리:
/opt/ml/input/data/
channel_name_epoch_number
-
지원되는 데이터 소스: Amazon S3
각 채널에 대해 별도의 파이프에서 읽어야 합니다. 예를 들어 3개의 채널
training
,validation
및testing
이 있는 경우 다음 파이프로부터 읽어야 합니다.-
/opt/ml/input/data/training_0, /opt/ml/input/data/training_1, ...
-
/opt/ml/input/data/validation_0, /opt/ml/input/data/validation_1, ...
-
/opt/ml/input/data/testing_0, /opt/ml/input/data/testing_1, ...
파이프를 순차적으로 읽습니다. 예를 들어 이름이
training
인 채널이 있는 경우 이 순서에 따라 파이프를 읽습니다.-
읽기
/opt/ml/input/data/training_0
모드로 열고 읽기 end-of-file (EOF) 로 읽거나, 첫 번째 에포크를 완료한 경우 파이프 파일을 일찍 닫으십시오. -
첫 번째 파이프 파일을 닫은 후
/opt/ml/input/data/training_1
을 찾고 두 번째 epoch 등을 완료할 때까지 읽습니다.
해당 epoch에 대한 파일이 아직 존재하지 않는 경우 파이프가 생성되기 전까지 코드를 재시도할 수도 있습니다. 채널 유형 간 순서 제한은 없습니다. 예를 들어
training
채널에 대해 여러 개의 epoch을 읽을 수 있고, 준비된 경우validation
채널 읽기만을 시작할 수 있습니다. 또는 알고리즘이 필요로 하는 경우 이를 동시에 읽을 수 있습니다.자체 컨테이너를 가져올 때 파이프 모드를 사용하는 방법을 보여주는 Jupyter 노트북의 예는 Amazon에 자체 파이프 모드 알고리즘 가져오기를
참조하십시오. SageMaker -
SageMaker 모델 학습은 고성능 S3 Express One Zone 디렉터리 버킷을 파일 모드, 고속 파일 모드 및 파이프 모드의 데이터 입력 위치로 지원합니다. S3 익스프레스 원 존을 사용하려면 Amazon S3 범용 버킷 대신 S3 익스프레스 원 존 디렉터리 버킷의 위치를 입력하십시오. 필요한 액세스 제어 및 권한 정책과 함께 IAM 역할용 ARN을 제공합니다. 자세한 내용은 AmazonSageMakerFullAccesspolicy 섹션을 참조하세요. 자세한 내용은 S3 Express One Zone을 참조하세요.
분산 학습 구성
여러 컨테이너로 분산 교육을 수행하는 경우 파일에서 모든 컨테이너에 대한 정보를 사용할 수 있도록 합니다/opt/ml/input/config/resourceconfig.json
. SageMaker
컨테이너 간 통신을 활성화하기 위해 이 JSON 파일에는 모든 컨테이너에 대한 정보가 들어 있습니다. SageMaker 이 파일을 File
및 Pipe
모드 알고리즘 모두에서 사용할 수 있도록 합니다. 파일은 다음 정보를 제공합니다.
-
current_host
- 컨테이너 네트워크에 있는 현재 컨테이너의 이름. 예를 들어algo-1
입니다. 호스트 값은 언제든 변경할 수 있습니다. 이 변수에 대한 특정 값으로 코드를 작성하지 마십시오. -
hosts
- 컨테이너 네트워크에 있는 모든 컨테이너 이름의 목록으로, 문자순으로 정렬됩니다. 예를 들어["algo-1", "algo-2", "algo-3"]
은 3개 노드 클러스터를 나타냅니다. 컨테이너는 이러한 이름을 사용하여 컨테이너 네트워크에 있는 다른 컨테이너를 부를 수 있습니다. 호스트 값은 언제든 변경할 수 있습니다. 이 변수에 대한 특정 값으로 코드를 작성하지 마십시오. -
network_interface_name
- 컨테이너에 표시되는 네트워크 인터페이스의 이름입니다. 예를 들어 MPI(Message Passing Interface)를 실행하는 컨테이너는 이 정보를 사용하여 네트워크 인터페이스 이름을 설정할 수 있습니다. -
/etc/hostname
또는/etc/hosts
에 있는 정보를 사용하지 마십시오. 부정확할 수 있습니다. -
호스트 이름 정보는 알고리즘 컨테이너에서 바로 사용하지 못할 수 있습니다. 클러스터에서 호스트 이름 확인 작업에 대한 재시도 정책을 노드로 추가하도록 설정하는 것이 좋습니다.
다음은 3개 노드 클러스터에 있는 노드 1의 예제 파일입니다.
{ "current_host": "algo-1", "hosts": ["algo-1","algo-2","algo-3"], "network_interface_name":"eth1" }