기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
TorchServe
TorchServe 는 Conda를 AMI 사용한 딥 러닝이 사전 설치된 PyTorch. TorchServe com에서 내보낸 딥 러닝 모델을 제공하는 유연한 도구입니다.
사용에 대한 자세한 내용은 모델 서버 for PyTorch Documentation을
주제
에서 이미지 분류 모델 제공 TorchServe
이 자습서에서는 를 사용하여 이미지 분류 모델을 제공하는 방법을 보여줍니다 TorchServe. 에서 제공하는 DenseNet-161 모델을 사용합니다 PyTorch. 서버가 실행되면 예측 요청을 수신합니다. 예를 들어 고양이의 이미지와 같은 이미지를 업로드할 때 서버는 모델이 교육한 클래스 가운데 가장 일치하는 5개 클래스에 대한 예측을 반환합니다.
에서 예제 이미지 분류 모델을 제공하려면 TorchServe
-
Conda v34 이상의 Deep Learning을 사용하여 Amazon Elastic Compute Cloud(AmazonEC2) 인스턴스AMI에 연결합니다.
-
pytorch_p310
환경을 활성화합니다.source activate pytorch_p310
-
TorchServe 리포지토리를 복제한 다음 모델을 저장할 디렉터리를 생성합니다.
git clone https://github.com/pytorch/serve.git mkdir model_store
-
모델 아카이버를 사용하여 모델을 보관합니다.
extra-files
파라미터는TorchServe
리포지토리의 파일을 사용하므로 필요한 경우 경로를 업데이트합니다. 모델 아카이버에 대한 자세한 내용은 의 Torch 모델 아카이버를 참조하세요 TorchServe.wget https://download.pytorch.org/models/densenet161-8d451a50.pth torch-model-archiver --model-name densenet161 --version 1.0 --model-file ./serve/examples/image_classifier/densenet_161/model.py --serialized-file densenet161-8d451a50.pth --export-path model_store --extra-files ./serve/examples/image_classifier/index_to_name.json --handler image_classifier
-
를 실행 TorchServe 하여 엔드포인트를 시작합니다.
> /dev/null
을 추가하면 로그 출력이 중지됩니다.torchserve --start --ncs --model-store model_store --models densenet161.mar > /dev/null
-
키튼 이미지를 다운로드하여 예측 엔드포인트로 TorchServe 보냅니다.
curl -O https://s3.amazonaws.com/model-server/inputs/kitten.jpg curl http://127.0.0.1:8080/predictions/densenet161 -T kitten.jpg
예측 엔드포인트는 다음과 같은 상위 5개의 예측과 JSON 유사하게 예측을 반환합니다. 이 예측에서 이미지는 이집트 고양이를 포함할 확률이 47%이고, 이후 탭 고양이를 포함할 확률이 46%입니다.
{ "tiger_cat": 0.46933576464653015, "tabby": 0.463387668132782, "Egyptian_cat": 0.0645613968372345, "lynx": 0.0012828196631744504, "plastic_bag": 0.00023323058849200606 }
-
테스트를 마친 후 서버를 중단합니다.
torchserve --stop
기타 예제
TorchServe 에는 DLAMI 인스턴스에서 실행할 수 있는 다양한 예제가 있습니다. TorchServe프로젝트 리포지토리 예제 페이지 에서
추가 정보
Docker를 사용하여 설정하는 TorchServe 방법과 최신 TorchServe 기능을 포함한 자세한 TorchServe 내용은 의 TorchServe 프로젝트 페이지를