Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Abilita l’implementazione
Quando aggiungi un modello da condividere, puoi facoltativamente fornire un ambiente di inferenza in cui i collaboratori dell'organizzazione possano implementare il modello condiviso per l'inferenza.
Dopo aver addestrato il tuo modello di machine learning, dovrai distribuirlo su un endpoint Amazon SageMaker AI per l'inferenza. Ciò comporta la fornitura di un ambiente contenitore, uno script di inferenza, gli artefatti del modello generati durante l'addestramento e la selezione di un tipo di istanza di calcolo appropriato. La corretta configurazione di queste impostazioni è fondamentale per garantire che il modello distribuito possa effettuare previsioni accurate e gestire le richieste di inferenza in modo efficiente. Per configurare il modello per l'inferenza, segui questi passaggi:
-
Aggiungi un container da utilizzare per l'inferenza. Puoi portare il tuo container in Amazon ECR o utilizzare un Amazon SageMaker AI Deep Learning Container.
-
Fornisci l'URI di Amazon S3 a uno script di inferenza. Gli script di inferenza personalizzati vengono eseguiti all'interno del container scelto. Lo script di inferenza dovrebbe includere una funzione per il caricamento del modello e, facoltativamente, funzioni per la generazione di previsioni e l'elaborazione di input e output. Per ulteriori informazioni sulla creazione di script di inferenza per il framework di tua scelta, consulta Frameworks nella
documentazione di Python SageMaker SDK. Ad esempio, per TensorFlow, vedi Come implementare i gestori di pre e/o post-elaborazione. -
Fornisci un URI Amazon S3 per gli artefatti del modello. Gli artefatti del modello sono l'output che risulta dall'addestramento di un modello e in genere sono costituiti da parametri addestrati, una definizione del modello che descrive come calcolare le inferenze e altri metadati. Se hai addestrato il tuo modello all' SageMaker intelligenza artificiale, gli artefatti del modello vengono salvati come un singolo file TAR compresso in Amazon S3. Se hai addestrato il tuo modello al di fuori dell' SageMaker intelligenza artificiale, devi creare questo singolo file TAR compresso e salvarlo in una posizione Amazon S3.
-
Selezione di un tipo di istanza. Ti consigliamo un’istanza GPU con più memoria per l’addestramento con batch di grandi dimensioni. Per un elenco completo delle istanze di SageMaker formazione AWS nelle diverse regioni, consulta la tabella dei prezzi on demand in Amazon SageMaker AI
Pricing.