Algoritmi, framework e istanze supportati per endpoint multimodello - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Algoritmi, framework e istanze supportati per endpoint multimodello

Per informazioni sugli algoritmi, i framework e i tipi di istanza che è possibile utilizzare con gli endpoint a più modelli, consulta le sezioni seguenti.

Algoritmi, framework e istanze supportati per endpoint multimodello che utilizzano istanze supportate CPU

I container di inferenza per i seguenti algoritmi e framework supportano endpoint a più modelli:

Per utilizzare qualsiasi altro framework o algoritmo, utilizza il toolkit di SageMaker inferenza per creare un contenitore che supporti endpoint multimodello. Per informazioni, consultare Crea il tuo contenitore per endpoint multimodello SageMaker.

Gli endpoint multimodello supportano tutti i tipi di istanza. CPU

Algoritmi, framework e istanze supportati per endpoint multimodello che utilizzano istanze supportate GPU

L'hosting di più modelli GPU supportati su endpoint multimodello è supportato tramite il server Triton Inference. SageMaker Questo supporta tutti i principali framework di inferenza come® NVIDIA TensorRT™,, Python,, MXNet scikit-learn PyTorch, Open, C++ ONNX personalizzato e XGBoost altri. RandomForest VINO

Per utilizzare qualsiasi altro framework o algoritmo, puoi usare il back-end Triton per Python o C++ per scrivere la logica del modello e servire qualsiasi modello personalizzato. Dopo aver preparato il server, puoi iniziare a implementare centinaia di modelli di Deep Learning dietro un unico endpoint.

Gli GPU endpoint multimodello supportano i seguenti tipi di istanza:

Famiglia di istanze Tipo di istanza vCPUs GiB di memoria per v CPU GPUs GPUmemoria

p2

ml.p2.xlarge

4

15,25

1

12

p3

ml.p3.2xlarge

8

7,62

1

16

g5

ml.g5.xlarge

4

4

1

24

g5

ml.g 5.2xlarg

8

4

1

24

g5

ml.g 5,4xlarge

16

4

1

24

g5

ml.g 5,8xlarge

32

4

1

24

g5

ml.g 5,16xlarge

64

4

1

24

g4dn

ml.g4dn.xlarge

4

4

1

16

g4dn

ml.g4dn.2xlarge

8

4

1

16

g4dn

ml.g4dn.4xlarge

16

4

1

16

g4dn

ml.g4dn.8xlarge

32

4

1

16

g4dn

ml.g4dn.16xlarge

64

4

1

16