Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Funzionalità supportate
Amazon SageMaker AI offre le seguenti quattro opzioni per implementare modelli per l'inferenza.
-
Inferenza in tempo reale per carichi di lavoro di inferenza con requisiti in tempo reale, interattivi e a bassa latenza.
-
Trasformazione in batch per inferenze offline con set di dati di grandi dimensioni.
-
Inferenza asincrona per l' near-real-timeinferenza con input di grandi dimensioni che richiedono tempi di preelaborazione più lunghi.
-
Inferenza senza server per carichi di lavoro di inferenza che presentano periodi di inattività tra picchi di traffico.
La tabella seguente riassume le funzionalità principali della piattaforma supportate da ciascuna opzione di inferenza. Non mostra le funzionalità che possono essere fornite da framework, container Docker personalizzati o tramite il concatenamento di diversi servizi AWS .
Funzionalità | Inferenza in tempo reale | Trasformazione in batch | Inferenza asincrona | Inferenza serverless | Container Docker |
---|---|---|---|---|---|
Supporto per il dimensionamento automatico | ✓ | N/D | ✓ | ✓ | N/D |
Supporto di GPU | ✓ 1 | ✓ 1 | ✓ 1 | 1P, precostruito, BYOC | |
Modello singolo | ✓ | ✓ | ✓ | ✓ | N/D |
Endpoint multi-modello | ✓ | K-nn, Linear LearnerXGBoost,, Apache RCF TensorFlow, scikit-learn 2 MXNet PyTorch | |||
Endpoint multi-container | ✓ | 1P, precostruito, Extend precostruito, BYOC | |||
Pipeline di inferenza seriale | ✓ | ✓ | 1P, precostruito, Extend precostruito, BYOC | ||
Suggeritore di inferenza | ✓ | 1P, precostruito, Extend precostruito, BYOC | |||
Supporto per Collegamento privato | ✓ | ✓ | ✓ | N/D | |
Supporto per acquisizione dei dati/monitoraggio modello | ✓ | ✓ | N/D | ||
DLCssupportato |
1P, precostruito, Extend precostruito, BYOC | 1P, precostruito, Extend precostruito, BYOC | 1P, precostruito, Extend precostruito, BYOC | 1P, precostruito, Extend precostruito, BYOC | N/D |
Protocolli supportati | HTTP(S) | HTTP(S) | HTTP(S) | HTTP(S) | N/D |
Dimensione payload | < 6 MB | ≤ 100 MB | ≤ 1 GB | ≤ 4 MB | |
HTTPcodifica a blocchi | Dipende dal framework, 1P non supportato | N/D | Dipende dal framework, 1P non supportato | Dipende dal framework, 1P non supportato | N/D |
Timeout richiesta | < 60 secondi | Giorni | < 1 ora | < 60 secondi | N/D |
Guardrail per l'implementazione: implementazioni blu/verde | ✓ | N/D | ✓ | N/D | |
Guardrail per l'implementazione: implementazioni in sequenza | ✓ | N/D | ✓ | N/D | |
Shadow testing | ✓ | N/D | |||
Scalabilità a zero | N/D | ✓ | ✓ | N/D | |
Supporto per pacchetti modello Market Place | ✓ | ✓ | N/D | ||
Supporto cloud privato virtuale | ✓ | ✓ | ✓ | N/D | |
Supporto di più varianti di produzione | ✓ | N/D | |||
Isolamento della rete | ✓ | ✓ | N/D | ||
Supporto al servizio parallelo del modello | ✓ 3 | ✓ | ✓ 3 | ✓ 3 | |
Crittografia dei volumi | ✓ | ✓ | ✓ | ✓ | N/D |
cliente AWS KMS | ✓ | ✓ | ✓ | ✓ | N/D |
Istanze d supportate | ✓ | ✓ | ✓ | N/D | |
supporto inf1 | ✓ | ✓ |
Con l' SageMaker intelligenza artificiale, puoi implementare uno o più modelli dietro un singolo endpoint di inferenza per l'inferenza in tempo reale. La tabella seguente riassume le funzionalità principali supportate dalle varie opzioni di hosting fornite con inferenza in tempo reale.
Funzionalità | Endpoint per modelli singoli | Endpoint multi-modello | Pipeline di inferenza seriale | Endpoint multi-container |
---|---|---|---|---|
Supporto per il dimensionamento automatico | ✓ | ✓ | ✓ | ✓ |
Supporto di GPU | ✓ 1 | ✓ | ✓ | |
Modello singolo | ✓ | ✓ | ✓ | ✓ |
Endpoint multi-modello | ✓ | ✓ | N/D | |
Endpoint multi-container | ✓ | N/D | ||
Pipeline di inferenza seriale | ✓ | ✓ | N/D | |
Suggeritore di inferenza | ✓ | |||
Supporto per Collegamento privato | ✓ | ✓ | ✓ | ✓ |
Supporto per acquisizione dei dati/monitoraggio modello | ✓ | N/D | N/D | N/D |
DLCssupportato | 1P, precostruito, Extend precostruito, BYOC | K-nn, Linear LearnerXGBoost,, ApacheRCF, TensorFlow scikit-learn 2 MXNet PyTorch | 1P, precostruito, Extend precostruito, BYOC | 1P, precostruito, Extend precostruito, BYOC |
Protocolli supportati | HTTP(S) | HTTP(S) | HTTP(S) | HTTP(S) |
Dimensione payload | < 6 MB | < 6 MB | < 6 MB | < 6 MB |
Timeout richiesta | < 60 secondi | < 60 secondi | < 60 secondi | < 60 secondi |
Guardrail per l'implementazione: implementazioni blu/verde | ✓ | ✓ | ✓ | ✓ |
Guardrail per l'implementazione: implementazioni in sequenza | ✓ | ✓ | ✓ | ✓ |
Shadow testing | ✓ | |||
Supporto per pacchetti modello Market Place | ✓ | |||
Supporto cloud privato virtuale | ✓ | ✓ | ✓ | ✓ |
Supporto di più varianti di produzione | ✓ | ✓ | ✓ | |
Isolamento della rete | ✓ | ✓ | ✓ | ✓ |
Supporto al servizio parallelo del modello | ✓ 3 | ✓ 3 | ||
Crittografia dei volumi | ✓ | ✓ | ✓ | ✓ |
Cliente AWS KMS | ✓ | ✓ | ✓ | ✓ |
Istanze d supportate | ✓ | ✓ | ✓ | ✓ |
supporto inf1 | ✓ |
1 La disponibilità dei tipi di EC2 istanze Amazon dipende dalla AWS regione. Per la disponibilità di istanze specifiche AWS, consulta i prezzi di Amazon SageMaker AI
2 Per utilizzare qualsiasi altro framework o algoritmo, utilizza il toolkit SageMaker AI Inference per creare un contenitore che supporti endpoint multimodello.
3 Con l' SageMaker intelligenza artificiale, puoi implementare modelli di grandi dimensioni (fino a 500 GB) per l'inferenza. È possibile configurare il controllo dello stato del container e le quote di timeout per il download, fino a 60 minuti. Ciò ti consentirà di avere più tempo per scaricare e caricare il modello e le risorse associate. Per ulteriori informazioni, consulta SageMaker Parametri degli endpoint AI per l'inferenza di modelli di grandi dimensioni. Puoi utilizzare contenitori di inferenza per modelli di grandi dimensioni