Avviso di fine del supporto: il 31 ottobre 2025 AWS interromperà il supporto per Amazon Lookout for Vision. Dopo il 31 ottobre 2025, non potrai più accedere alla console Lookout for Vision o alle risorse Lookout for Vision. Per ulteriori informazioni, consulta questo post del blog.
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esecuzione del modello Amazon Lookout for Vision addestrato
Per rilevare anomalie nelle immagini con il modello, è necessario innanzitutto avviare il modello con l'StartModeloperazione. La console Amazon Lookout for Vision AWS CLI fornisce comandi che puoi usare per avviare e arrestare il modello. Questa sezione include un codice di esempio che puoi usare.
Dopo l'avvio del modello, è possibile utilizzare l'DetectAnomalies
operazione per rilevare anomalie in un'immagine. Per ulteriori informazioni, consulta Rilevamento di anomalie in un'immagine.
Argomenti
Unità di inferenza
Quando avvii il tuo modello, Amazon Lookout for Vision fornisce almeno una risorsa di calcolo, nota come unità di inferenza. Specifichi il numero di unità di inferenza da utilizzare nel parametro di MinInferenceUnits
input dell'API. StartModel
L'allocazione predefinita per un modello è 1 unità di inferenza.
Importante
Ti viene addebitato il numero di ore di funzionamento del modello e il numero di unità di inferenza utilizzate dal modello durante l'esecuzione, in base a come configuri l'esecuzione del modello. Ad esempio, se avvii il modello con due unità di inferenza e lo utilizzi per 8 ore, ti verranno addebitate 16 ore di inferenza (8 ore di esecuzione* due unità di inferenza). Per ulteriori informazioni, consulta la pagina dei prezzi di Amazon Lookout for Vision
Le transazioni al secondo (TPS) supportate da una singola unità di inferenza sono influenzate da quanto segue:
L'algoritmo utilizzato da Lookout for Vision per addestrare il modello. Quando si addestra un modello, vengono addestrati più modelli. Lookout for Vision seleziona il modello con le migliori prestazioni in base alla dimensione del set di dati e alla sua composizione di immagini normali e anomale.
Le immagini a risoluzione più elevata richiedono più tempo per l'analisi.
Le immagini di dimensioni più piccole (misurate in MB) vengono analizzate più rapidamente delle immagini più grandi.
Gestione della velocità effettiva con unità di inferenza
È possibile aumentare o diminuire la velocità effettiva del modello in base alle esigenze dell'applicazione. Per aumentare la velocità effettiva, utilizzate unità di inferenza aggiuntive. Ogni unità di inferenza aggiuntiva aumenta la velocità di elaborazione di un'unità di inferenza. Per informazioni sul calcolo del numero di unità di inferenza necessarie, consulta Calcolare le unità di inferenza per i modelli Amazon Rekognition Custom Labels e Amazon Lookout
Aggiungere o rimuovere manualmente le unità di inferenza
Arrestate il modello e riavviatelo con il numero richiesto di unità di inferenza. Lo svantaggio di questo approccio è che il modello non può ricevere richieste durante il riavvio e non può essere utilizzato per gestire i picchi di domanda. Utilizza questo approccio se il tuo modello ha un throughput costante e il tuo caso d'uso può tollerare 10-20 minuti di inattività. Un esempio potrebbe essere se desideri eseguire chiamate in batch al modello utilizzando una pianificazione settimanale.
Unità di inferenza con scalabilità automatica
Se il tuo modello deve far fronte ai picchi di domanda, Amazon Lookout for Vision può ridimensionare automaticamente il numero di unità di inferenza utilizzate dal modello. All'aumentare della domanda, Amazon Lookout for Vision aggiunge unità di inferenza aggiuntive al modello e le rimuove quando la domanda diminuisce.
Per consentire a Lookout for Vision di scalare automaticamente le unità di inferenza per un modello, avvia il modello e imposta il numero massimo di unità di inferenza che può utilizzare utilizzando il parametro. MaxInferenceUnits
L'impostazione di un numero massimo di unità di inferenza consente di gestire i costi di esecuzione del modello limitando il numero di unità di inferenza disponibili. Se non specifichi un numero massimo di unità, Lookout for Vision non ridimensionerà automaticamente il modello, ma utilizzerà solo il numero di unità di inferenza con cui hai iniziato. Per informazioni sul numero massimo di unità di inferenza, vedere Service Quotas.
È inoltre possibile specificare un numero minimo di unità di inferenza utilizzando il parametro. MinInferenceUnits
Ciò consente di specificare il throughput minimo per il modello, dove una singola unità di inferenza rappresenta 1 ora di tempo di elaborazione.
Nota
Non è possibile impostare il numero massimo di unità di inferenza con la console Lookout for Vision. Specificate invece il parametro MaxInferenceUnits
di input per l'StartModel
operazione.
Lookout for Vision fornisce le seguenti metriche di CloudWatch Amazon Logs che puoi utilizzare per determinare lo stato corrente del ridimensionamento automatico di un modello.
Parametro | Descrizione |
---|---|
|
Il numero di unità di inferenza a cui Lookout for Vision viene ridimensionato verso l'alto o verso il basso. |
|
Il numero di unità di inferenza utilizzate dal modello. |
If DesiredInferenceUnits
=InServiceInferenceUnits
, Lookout for Vision non sta attualmente ridimensionando il numero di unità di inferenza.
Se DesiredInferenceUnits
>InServiceInferenceUnits
, Lookout for Vision sta aumentando fino al valore di. DesiredInferenceUnits
Se DesiredInferenceUnits
<InServiceInferenceUnits
, Lookout for Vision viene ridimensionato al valore di. DesiredInferenceUnits
Per ulteriori informazioni sulle metriche restituite da Lookout for Vision e sulle dimensioni di filtraggio, consulta Monitoring Lookout for Vision with Amazon. CloudWatch
Per scoprire il numero massimo di unità di inferenza che hai richiesto per un modello, chiama DescribeModele controlla il MaxInferenceUnits
campo nella risposta.
Zone di disponibilità
Amazon Lookout for Vision; distribuisce unità di inferenza su più zone di disponibilità all'interno di AWS una regione per fornire una maggiore disponibilità. Per ulteriori informazioni, consulta Zone di disponibilità.
Se si verifica un'interruzione della zona di disponibilità, tutte le unità di inferenza nella zona di disponibilità non sono disponibili e la capacità del modello viene ridotta. Le chiamate a DetectAnomaliesvengono ridistribuite tra le unità di inferenza rimanenti. Tali chiamate hanno esito positivo se non superano le transazioni per secondi (TPS) supportate delle unità di inferenza rimanenti. Dopo aver AWS riparato la zona di disponibilità, le unità di inferenza vengono riavviate e viene ripristinata la piena capacità.
Se una singola unità di inferenza si guasta, Amazon Lookout for Vision avvia automaticamente una nuova unità di inferenza nella stessa zona di disponibilità. La capacità del modello viene ridotta fino all'avvio della nuova unità di inferenza.