As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
O AMIs de deep learning da AWS está pronto para uso com processador Arm64 baseado em processador e vem GPUs otimizado para. PyTorch O ARM64 GPU PyTorch DLAMI inclui um ambiente Python PyTorch
Conteúdo
Verifique o PyTorch ambiente Python
Conecte-se à sua instância G5g e ative o ambiente básico do Conda com o seguinte comando:
source activate base
Seu prompt de comando deve indicar que você está trabalhando no ambiente básico do Conda, que contém PyTorch TorchVision, e outras bibliotecas.
(base) $
Verifique os caminhos de ferramentas padrão do PyTorch ambiente:
(base) $ which python
(base) $ which pip
(base) $ which conda
(base) $ which mamba
>>> import torch, torchvision
>>> torch.__version__
>>> torchvision.__version__
>>> v = torch.autograd.Variable(torch.randn(10, 3, 224, 224))
>>> v = torch.autograd.Variable(torch.randn(10, 3, 224, 224)).cuda()
>>> assert isinstance(v, torch.Tensor)
Execute uma amostra de treinamento com PyTorch
Execute uma amostra de trabalho de treinamento do MNIST:
git clone https://github.com/pytorch/examples.git
cd examples/mnist
python main.py
O resultado deve ser semelhante ao seguinte:
...
Train Epoch: 14 [56320/60000 (94%)] Loss: 0.021424
Train Epoch: 14 [56960/60000 (95%)] Loss: 0.023695
Train Epoch: 14 [57600/60000 (96%)] Loss: 0.001973
Train Epoch: 14 [58240/60000 (97%)] Loss: 0.007121
Train Epoch: 14 [58880/60000 (98%)] Loss: 0.003717
Train Epoch: 14 [59520/60000 (99%)] Loss: 0.001729
Test set: Average loss: 0.0275, Accuracy: 9916/10000 (99%)
Execute uma amostra de inferência com PyTorch
Use os comandos a seguir para baixar um modelo densenet161 pré-treinado e executar a inferência usando: TorchServe
# Set up TorchServe
cd $HOME
git clone https://github.com/pytorch/serve.git
mkdir -p serve/model_store
cd serve
# Download a pre-trained densenet161 model
wget https://download.pytorch.org/models/densenet161-8d451a50.pth >/dev/null
# Save the model using torch-model-archiver
torch-model-archiver --model-name densenet161 \
--version 1.0 \
--model-file examples/image_classifier/densenet_161/model.py \
--serialized-file densenet161-8d451a50.pth \
--handler image_classifier \
--extra-files examples/image_classifier/index_to_name.json \
--export-path model_store
# Start the model server
torchserve --start --no-config-snapshots \
--model-store model_store \
--models densenet161=densenet161.mar &> torchserve.log
# Wait for the model server to start
sleep 30
# Run a prediction request
curl http://127.0.0.1:8080/predictions/densenet161 -T examples/image_classifier/kitten.jpg
O resultado deve ser semelhante ao seguinte:
{
"tiger_cat": 0.4693363308906555,
"tabby": 0.4633873701095581,
"Egyptian_cat": 0.06456123292446136,
"lynx": 0.0012828150065615773,
"plastic_bag": 0.00023322898778133094
}
Use os comandos a seguir para cancelar o registro do modelo densenet161 e parar o servidor:
curl -X DELETE http://localhost:8081/models/densenet161/1.0 torchserve --stop
O resultado deve ser semelhante ao seguinte:
{
"status": "Model \"densenet161\" unregistered"
}
TorchServe has stopped.