Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Opzioni di implementazione dei modelli in Amazon SageMaker AI
Dopo aver addestrato il tuo modello di machine learning, puoi distribuirlo utilizzando Amazon SageMaker AI per ottenere previsioni. Amazon SageMaker AI supporta i seguenti modi per distribuire un modello, a seconda del caso d'uso:
-
Per endpoint persistenti e in tempo reale che effettuano una previsione alla volta, utilizza i servizi di hosting SageMaker AI in tempo reale. Per informazioni, consulta Inferenza in tempo reale.
-
I carichi di lavoro che presentano periodi di inattività tra i picchi di traffico e possono tollerare partenze a freddo, utilizzano Serverless Inference. Per informazioni, consulta Implementa modelli con Amazon SageMaker Serverless Inference.
-
Le richieste con payload di grandi dimensioni fino a 1 GB, lunghi tempi di elaborazione e requisiti di latenza quasi in tempo reale, utilizzano Amazon SageMaker Asynchronous Inference. Per informazioni, consulta Inferenza asincrona.
-
Per ottenere previsioni per un intero set di dati, usa la trasformazione in batch AI. SageMaker Per informazioni, consulta Trasformazione in batch per l'inferenza con Amazon SageMaker AI.
SageMaker L'intelligenza artificiale fornisce anche funzionalità per gestire le risorse e ottimizzare le prestazioni di inferenza durante l'implementazione di modelli di apprendimento automatico:
-
Per gestire i modelli sui dispositivi edge in modo da ottimizzare, proteggere, monitorare e mantenere i modelli di machine learning su flotte di dispositivi edge, vedi. Modella l'implementazione a livello perimetrale con Edge Manager SageMaker Questo vale per i dispositivi periferici come fotocamere intelligenti, robot, personal computer e dispositivi mobili.
-
Per ottimizzare Gluon, Keras,, MXNet PyTorch TensorFlow, TensorFlow -Lite e i ONNX modelli per l'inferenza su macchine Android, Linux e Windows basate su processori di Ambarella, Intel, Nvidia, QualcommARM, Texas Instruments e XilinxNXP, vedi. Ottimizzazione delle prestazioni dei modelli con SageMaker Neo
Per ulteriori informazioni su tutte le opzioni di implementazione, consulta Implementa modelli per l'inferenza.