Esecuzione del modello Amazon Lookout for Vision addestrato - Amazon Lookout per Vision

Avviso di fine del supporto: il 31 ottobre 2025 AWS interromperà il supporto per Amazon Lookout for Vision. Dopo il 31 ottobre 2025, non potrai più accedere alla console Lookout for Vision o alle risorse Lookout for Vision. Per ulteriori informazioni, consulta questo post del blog.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Esecuzione del modello Amazon Lookout for Vision addestrato

Per rilevare anomalie nelle immagini con il modello, è necessario innanzitutto avviare il modello con l'StartModeloperazione. La console Amazon Lookout for Vision AWS CLI fornisce comandi che puoi usare per avviare e arrestare il modello. Questa sezione include un codice di esempio che puoi usare.

Dopo l'avvio del modello, è possibile utilizzare l'DetectAnomaliesoperazione per rilevare anomalie in un'immagine. Per ulteriori informazioni, consulta Rilevamento di anomalie in un'immagine.

Unità di inferenza

Quando avvii il tuo modello, Amazon Lookout for Vision fornisce almeno una risorsa di calcolo, nota come unità di inferenza. Specifichi il numero di unità di inferenza da utilizzare nel parametro di MinInferenceUnits input dell'API. StartModel L'allocazione predefinita per un modello è 1 unità di inferenza.

Importante

Ti viene addebitato il numero di ore di funzionamento del modello e il numero di unità di inferenza utilizzate dal modello durante l'esecuzione, in base a come configuri l'esecuzione del modello. Ad esempio, se avvii il modello con due unità di inferenza e lo utilizzi per 8 ore, ti verranno addebitate 16 ore di inferenza (8 ore di esecuzione* due unità di inferenza). Per ulteriori informazioni, consulta la pagina dei prezzi di Amazon Lookout for Vision. Se non interrompi esplicitamente il modello chiamando StopModel, ti verrà addebitato un costo anche se non stai analizzando attivamente le immagini con il tuo modello.

Le transazioni al secondo (TPS) supportate da una singola unità di inferenza sono influenzate da quanto segue:

  • L'algoritmo utilizzato da Lookout for Vision per addestrare il modello. Quando si addestra un modello, vengono addestrati più modelli. Lookout for Vision seleziona il modello con le migliori prestazioni in base alla dimensione del set di dati e alla sua composizione di immagini normali e anomale.

  • Le immagini a risoluzione più elevata richiedono più tempo per l'analisi.

  • Le immagini di dimensioni più piccole (misurate in MB) vengono analizzate più rapidamente delle immagini più grandi.

Gestione della velocità effettiva con unità di inferenza

È possibile aumentare o diminuire la velocità effettiva del modello in base alle esigenze dell'applicazione. Per aumentare la velocità effettiva, utilizzate unità di inferenza aggiuntive. Ogni unità di inferenza aggiuntiva aumenta la velocità di elaborazione di un'unità di inferenza. Per informazioni sul calcolo del numero di unità di inferenza necessarie, consulta Calcolare le unità di inferenza per i modelli Amazon Rekognition Custom Labels e Amazon Lookout for Vision. Se desideri modificare la velocità effettiva supportata dal tuo modello, hai due opzioni:

Aggiungere o rimuovere manualmente le unità di inferenza

Arrestate il modello e riavviatelo con il numero richiesto di unità di inferenza. Lo svantaggio di questo approccio è che il modello non può ricevere richieste durante il riavvio e non può essere utilizzato per gestire i picchi di domanda. Utilizza questo approccio se il tuo modello ha un throughput costante e il tuo caso d'uso può tollerare 10-20 minuti di inattività. Un esempio potrebbe essere se desideri eseguire chiamate in batch al modello utilizzando una pianificazione settimanale.

Unità di inferenza con scalabilità automatica

Se il tuo modello deve far fronte ai picchi di domanda, Amazon Lookout for Vision può ridimensionare automaticamente il numero di unità di inferenza utilizzate dal modello. All'aumentare della domanda, Amazon Lookout for Vision aggiunge unità di inferenza aggiuntive al modello e le rimuove quando la domanda diminuisce.

Per consentire a Lookout for Vision di scalare automaticamente le unità di inferenza per un modello, avvia il modello e imposta il numero massimo di unità di inferenza che può utilizzare utilizzando il parametro. MaxInferenceUnits L'impostazione di un numero massimo di unità di inferenza consente di gestire i costi di esecuzione del modello limitando il numero di unità di inferenza disponibili. Se non specifichi un numero massimo di unità, Lookout for Vision non ridimensionerà automaticamente il modello, ma utilizzerà solo il numero di unità di inferenza con cui hai iniziato. Per informazioni sul numero massimo di unità di inferenza, vedere Service Quotas.

È inoltre possibile specificare un numero minimo di unità di inferenza utilizzando il parametro. MinInferenceUnits Ciò consente di specificare il throughput minimo per il modello, dove una singola unità di inferenza rappresenta 1 ora di tempo di elaborazione.

Nota

Non è possibile impostare il numero massimo di unità di inferenza con la console Lookout for Vision. Specificate invece il parametro MaxInferenceUnits di input per l'StartModeloperazione.

Lookout for Vision fornisce le seguenti metriche di CloudWatch Amazon Logs che puoi utilizzare per determinare lo stato corrente del ridimensionamento automatico di un modello.

Parametro Descrizione

DesiredInferenceUnits

Il numero di unità di inferenza a cui Lookout for Vision viene ridimensionato verso l'alto o verso il basso.

InServiceInferenceUnits

Il numero di unità di inferenza utilizzate dal modello.

If DesiredInferenceUnits =InServiceInferenceUnits, Lookout for Vision non sta attualmente ridimensionando il numero di unità di inferenza.

Se DesiredInferenceUnits >InServiceInferenceUnits, Lookout for Vision sta aumentando fino al valore di. DesiredInferenceUnits

Se DesiredInferenceUnits <InServiceInferenceUnits, Lookout for Vision viene ridimensionato al valore di. DesiredInferenceUnits

Per ulteriori informazioni sulle metriche restituite da Lookout for Vision e sulle dimensioni di filtraggio, consulta Monitoring Lookout for Vision with Amazon. CloudWatch

Per scoprire il numero massimo di unità di inferenza che hai richiesto per un modello, chiama DescribeModele controlla il MaxInferenceUnits campo nella risposta.

Zone di disponibilità

Amazon Lookout for Vision; distribuisce unità di inferenza su più zone di disponibilità all'interno di AWS una regione per fornire una maggiore disponibilità. Per ulteriori informazioni, consulta Zone di disponibilità. Per proteggere i modelli di produzione dalle interruzioni della zona di disponibilità e dai guasti delle unità di inferenza, avvia i modelli di produzione con almeno due unità di inferenza.

Se si verifica un'interruzione della zona di disponibilità, tutte le unità di inferenza nella zona di disponibilità non sono disponibili e la capacità del modello viene ridotta. Le chiamate a DetectAnomaliesvengono ridistribuite tra le unità di inferenza rimanenti. Tali chiamate hanno esito positivo se non superano le transazioni per secondi (TPS) supportate delle unità di inferenza rimanenti. Dopo aver AWS riparato la zona di disponibilità, le unità di inferenza vengono riavviate e viene ripristinata la piena capacità.

Se una singola unità di inferenza si guasta, Amazon Lookout for Vision avvia automaticamente una nuova unità di inferenza nella stessa zona di disponibilità. La capacità del modello viene ridotta fino all'avvio della nuova unità di inferenza.