노트북 인스턴스에 EI 연결 - 아마존 SageMaker

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

노트북 인스턴스에 EI 연결

EI를 사용하여 추론 성능을 테스트하고 평가하려면 노트북 인스턴스를 생성하거나 업데이트할 때 EI를 노트북 인스턴스에 연결할 수 있습니다. 그런 다음 로컬 모드에서 EI를 사용하여 노트북 인스턴스에 호스팅된 엔드포인트에서 모델을 호스팅할 수 있습니다. 다양한 크기의 노트북 인스턴스와 EI 액셀러레이터를 테스트하여 사용 사례에 가장 효과적인 구성을 평가해야 합니다.

EI를 사용하기 위한 설정

노트북 인스턴스에서 로컬로 EI를 사용하려면 EI 인스턴스와 함께 노트북 인스턴스를 생성합니다.

EI 인스턴스를 사용하여 노트북 인스턴스를 생성하려면
  1. https://console.aws.amazon.com/sagemaker/ 에서 아마존 SageMaker 콘솔을 엽니다.

  2. 탐색 창에서 노트북 인스턴스를 선택합니다.

  3. 노트북 인스턴스 생성을 선택합니다.

  4. 노트북 인스턴스 이름에 노트북 인스턴스의 고유 이름을 입력합니다.

  5. 노트북 인스턴스 유형에서 CPU 인스턴스를 선택합니다(예: ml.t2.medium).

  6. Elastic Inference(EI)의 목록에서 ml.eia2.medium 등의 인스턴스를 선택합니다.

  7. IAM 역할의 경우, 필요한 사용 권한이 있는 IAM SageMaker 역할과 EI를 선택합니다.

  8. (선택 사항) VPC - Optional(VPC - 선택 사항)의 경우, 노트북 인스턴스에서 VPC를 사용하려면 사용 가능한 목록에서 하나를 선택합니다. 그렇지 않으면 No VPC(VPC 없음)로 둡니다. VPC를 사용하는 경우 사용자 지정 VPC를 사용하여 EI에 연결의 지침을 따르세요

  9. (선택 사항) 수명 주기 구성 - 선택 사항에서 구성 없음으로 그대로 두거나 수명 주기 구성을 선택합니다. 자세한 정보는 LCC스크립트를 사용하여 SageMaker 노트북 인스턴스를 사용자 지정합니다.을 참조하세요.

  10. (선택 사항) 암호화 키의 경우 - 선택 사항, 선택 사항) AWS Key Management Service (AWS KMS) 키를 사용하여 노트북 인스턴스에 연결된 ML 스토리지 볼륨의 데이터를 암호화하려면 키를 지정하십시오. SageMaker

  11. (선택 사항) 볼륨 크기(GB) - 선택 사항에서 기본값 5를 그대로 둡니다.

  12. (선택 사항) 태그에서 노트북 인스턴스에 태그를 추가합니다. 태그는 노트북 인스턴스를 관리하는 데 도움이 되도록 할당하는 레이블입니다. 각 태그는 사용자가 정의하는 키와 값으로 구성됩니다.

  13. 노트북 인스턴스 생성을 선택합니다.

EI가 연결되어 있는 노트북 인스턴스를 생성한 후에는 Jupyter notebook을 생성하고 노트북 인스턴스에 로컬로 호스팅된 EI 엔드포인트를 설정할 수 있습니다.

로컬 모드에서 EI를 사용하십시오. SageMaker

노트북 인스턴스에 호스팅된 엔드포인트에서 EI를 로컬로 사용하려면 Amazon SageMaker Python SDK 버전, MXNet 또는 추정기 또는 모델과 함께 로컬 모드를 사용하십시오. TensorFlow PyTorch SageMakerPython SDK의 로컬 모드 지원에 대한 자세한 내용은 https://github.com/aws/sagemaker-python-sdk#sagemaker-python-sdk-overview 을 참조하십시오.

SageMaker TensorFlow 추정기 및 모델과 함께 로컬 모드에서 EI 사용

로컬 TensorFlow 모드에서 EI를 사용하려면 추정기 또는 모델 객체의 deploy 메서드를 accelerator_type 호출할 때 instance_type for와 local_sagemaker_notebook for를 지정하십시오local. Amazon SageMaker Python SDK TensorFlow 추정기 및 모델에 대한 자세한 내용은 https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/index.html 을 참조하십시오.

다음 코드는 예측기 객체와 함께 로컬 모드를 사용하는 방법을 보여 줍니다. deploy 메서드를 호출하려면 먼저 다음 중 하나를 수행해야 합니다.

  • 예측기의 fit 메서드를 호출하여 모델을 훈련합니다.

  • 모델 객체를 초기화할 때 모델 결과물을 전달합니다.

# Deploys the model to a local endpoint tf_predictor = tf_model.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

SageMaker Apache MXNet 추정기 및 모델을 사용하여 로컬 모드에서 EI 사용

로컬 모드에서 Apache MXNet과 함께 EI를 사용하려면 예측기 또는 모델 객체의 deploy 메서드를 호출할 때 instance_typelocal을 지정하고 accelerator_typelocal_sagemaker_notebook을 지정합니다. Amazon SageMaker Python SDK MXNet 추정기 및 모델에 대한 자세한 내용은 https://sagemaker.readthedocs.io/en/stable/frameworks/mxnet/index.html 을 참조하십시오.

다음 코드는 예측기 객체와 함께 로컬 모드를 사용하는 방법을 보여 줍니다. 먼저 예측기의 fit 메서드를 호출하여 모델을 훈련해야 합니다.

# Deploys the model to a local endpoint mxnet_predictor = mxnet_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

로컬 모드에서 MXNet과 함께 EI를 사용하는 전체 예제는 https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/mxnet_mnist/mxnet_mnist_elastic_inference_local.html 의 샘플 노트북을 참조하세요.

추정기 및 모델과 함께 로컬 모드에서 EI를 사용하십시오. SageMaker PyTorch

로컬 PyTorch 모드에서 EI를 사용하려면 추정기 또는 모델 객체의 deploy 메서드를 호출할 때 for와 for를 지정하십시오local. instance_type local_sagemaker_notebook accelerator_type Amazon SageMaker Python SDK PyTorch 추정기 및 모델에 대한 자세한 내용은 추정기 및 모델을 참조하십시오 SageMaker PyTorch .

다음 코드는 예측기 객체와 함께 로컬 모드를 사용하는 방법을 보여 줍니다. 먼저 예측기의 fit 메서드를 호출하여 모델을 훈련해야 합니다.

# Deploys the model to a local endpoint pytorch_predictor = pytorch_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')