Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Usando il ARM64 GPU PyTorch DLAMI
AWS Deep Learning AMIs È pronto per l'uso con processori Arm64 ed è ottimizzato per. GPUs PyTorch ARM64GPU PyTorch DLAMIInclude un ambiente Python preconfigurato con e TorchServe
Indice
Verifica dell' PyTorch ambiente Python
Connettiti alla tua istanza G5g e attiva l'ambiente Conda di base con il seguente comando:
source activate base
Il prompt dei comandi dovrebbe indicare che stai lavorando nell'ambiente Conda di base, che contiene e altre PyTorch librerie TorchVision.
(base) $
Verificate i percorsi utensile predefiniti dell' PyTorch ambiente:
(base) $ which python (base) $ which pip (base) $ which conda (base) $ which mamba >>> import torch, torchvision >>> torch.__version__ >>> torchvision.__version__ >>> v = torch.autograd.Variable(torch.randn(10, 3, 224, 224)) >>> v = torch.autograd.Variable(torch.randn(10, 3, 224, 224)).cuda() >>> assert isinstance(v, torch.Tensor)
Esegui Training Sample con PyTorch
Esegui un esempio di lavoro di MNIST formazione:
git clone https://github.com/pytorch/examples.git cd examples/mnist python main.py
L'aspetto dell'output sarà simile al seguente:
... Train Epoch: 14 [56320/60000 (94%)] Loss: 0.021424 Train Epoch: 14 [56960/60000 (95%)] Loss: 0.023695 Train Epoch: 14 [57600/60000 (96%)] Loss: 0.001973 Train Epoch: 14 [58240/60000 (97%)] Loss: 0.007121 Train Epoch: 14 [58880/60000 (98%)] Loss: 0.003717 Train Epoch: 14 [59520/60000 (99%)] Loss: 0.001729 Test set: Average loss: 0.0275, Accuracy: 9916/10000 (99%)
Esegui Inference Sample con PyTorch
Usa i seguenti comandi per scaricare un modello densenet161 pre-addestrato ed eseguire l'inferenza utilizzando: TorchServe
# Set up TorchServe cd $HOME git clone https://github.com/pytorch/serve.git mkdir -p serve/model_store cd serve # Download a pre-trained densenet161 model wget https://download.pytorch.org/models/densenet161-8d451a50.pth >/dev/null # Save the model using torch-model-archiver torch-model-archiver --model-name densenet161 \ --version 1.0 \ --model-file examples/image_classifier/densenet_161/model.py \ --serialized-file densenet161-8d451a50.pth \ --handler image_classifier \ --extra-files examples/image_classifier/index_to_name.json \ --export-path model_store # Start the model server torchserve --start --no-config-snapshots \ --model-store model_store \ --models densenet161=densenet161.mar &> torchserve.log # Wait for the model server to start sleep 30 # Run a prediction request curl http://127.0.0.1:8080/predictions/densenet161 -T examples/image_classifier/kitten.jpg
L'aspetto dell'output sarà simile al seguente:
{ "tiger_cat": 0.4693363308906555, "tabby": 0.4633873701095581, "Egyptian_cat": 0.06456123292446136, "lynx": 0.0012828150065615773, "plastic_bag": 0.00023322898778133094 }
Utilizzate i seguenti comandi per annullare la registrazione del modello densenet161 e arrestare il server:
curl -X DELETE http://localhost:8081/models/densenet161/1.0 torchserve --stop
L'aspetto dell'output sarà simile al seguente:
{ "status": "Model \"densenet161\" unregistered" } TorchServe has stopped.