

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Componenti di AWS Batch
<a name="batch_components"></a>

AWS Batch semplifica l'esecuzione di lavori in batch su più zone di disponibilità all'interno di una regione. È possibile creare ambienti di calcolo AWS Batch con un VPC nuovo o esistente. Dopo avere configurato un ambiente di calcolo e averlo associato a una coda di processi, è possibile creare definizioni di processi che specificano le immagini di container Docker per eseguire i processi. Le immagini di container sono archiviate in ed estratte da registri dei container, che possono essere interni o esterni all'infrastruttura AWS .

![\[Mostra i componenti AWS Batch e il modo in cui si sono integrati tra loro\]](http://docs.aws.amazon.com/it_it/batch/latest/userguide/images/batch-components.png)


## Ambiente di calcolo
<a name="component_compute_environment"></a>

Un ambiente di calcolo è un set di risorse di calcolo gestite o non gestite usate per eseguire i processi. Con gli ambienti di elaborazione gestiti, puoi specificare il tipo di elaborazione desiderato (Fargate o EC2) a diversi livelli di dettaglio. È possibile configurare ambienti di calcolo che utilizzano un particolare tipo di EC2 istanza, un modello particolare come o. `c5.2xlarge` `m5.10xlarge` In alternativa, puoi scegliere solo di specificare che desideri utilizzare i tipi di istanza più recenti. Puoi anche specificare il numero minimo, desiderato e massimo di v CPUs per l'ambiente, oltre all'importo che sei disposto a pagare per un'istanza Spot come percentuale del prezzo dell'istanza on demand e un set target di sottoreti VPC. AWS Batch avvia, gestisce e termina in modo efficiente i tipi di elaborazione in base alle esigenze. Puoi inoltre gestire i tuoi ambienti di calcolo. Pertanto, sei responsabile della configurazione e del ridimensionamento delle istanze in un cluster Amazon ECS AWS Batch creato per te. Per ulteriori informazioni, consulta [Ambienti di calcolo per AWS Batch](compute_environments.md).

## Job queues
<a name="component_job_queue"></a>

Quando invii un AWS Batch lavoro, lo invii a una particolare coda di lavoro, dove il lavoro rimane fino a quando non viene programmato in un ambiente di elaborazione. Associate uno o più ambienti di elaborazione a una coda di lavoro. È inoltre possibile assegnare valori di priorità a questi ambienti di elaborazione e persino tra le code di lavoro stesse. Ad esempio, è possibile avere una coda ad alta priorità a cui inviare i lavori con priorità urgente e una coda a bassa priorità per i lavori che possono essere eseguiti in qualsiasi momento quando le risorse di elaborazione sono più economiche. Per ulteriori informazioni, consulta [Code di processi](job_queues.md).

## Definizioni del lavoro
<a name="component_job_definition"></a>

Una definizione di processo specifica come devono essere eseguiti i lavori. Puoi pensare a una definizione di lavoro come a un modello per le risorse del tuo lavoro. Puoi assegnare al tuo lavoro un ruolo IAM per fornire l'accesso ad altre AWS risorse. È inoltre necessario specificare i requisiti di memoria e CPU. La definizione del processo può anche controllare le proprietà del container, le variabili di ambiente e i punti di montaggio per lo storage persistente. Molte specifiche in una definizione di processo possono essere sovrascritte indicando nuovi valori al momento dell'invio dei singoli processi. Per ulteriori informazioni, consulta [Definizioni del lavoro](job_definitions.md)

## Processi
<a name="component_job"></a>

Un'unità di lavoro (ad esempio uno script shell, un eseguibile Linux o un'immagine di container Docker) inviata a AWS Batch. Ha un nome e viene eseguito come applicazione containerizzata su o EC2 risorse AWS Fargate Amazon nel tuo ambiente di calcolo, utilizzando i parametri specificati in una definizione di processo. I lavori possono fare riferimento ad altri lavori per nome o per ID e possono dipendere dal completamento con successo di altri lavori o dalla disponibilità delle [risorse](resource-aware-scheduling.md) specificate. Per ulteriori informazioni, consulta [Jobs](jobs.md).

## Politica di pianificazione
<a name="component_scheduling_policy"></a>

È possibile utilizzare le politiche di pianificazione per configurare il modo in cui le risorse di elaborazione in una coda di lavoro vengono allocate tra utenti o carichi di lavoro. Utilizzando politiche di pianificazione con condivisione equa, puoi assegnare identificatori di condivisione diversi a carichi di lavoro o utenti. Per impostazione predefinita, il AWS Batch job scheduler utilizza una strategia FIFO (first-in, first-out). Per ulteriori informazioni, consulta [Politiche di pianificazione con condivisione equa](job_scheduling.md).

## Risorse consumabili
<a name="component_consumable_resource"></a>

Una risorsa consumabile è una risorsa necessaria per eseguire i lavori, ad esempio un token di licenza di terze parti, la larghezza di banda per l'accesso al database, la necessità di limitare le chiamate a un'API di terze parti e così via. Si specificano le risorse consumabili necessarie per l'esecuzione di un processo e Batch tiene conto di queste dipendenze tra le risorse quando pianifica un lavoro. È possibile ridurre il sottoutilizzo delle risorse di elaborazione allocando solo i lavori che dispongono di tutte le risorse necessarie. Per ulteriori informazioni, consulta [Pianificazione basata sulle risorse](resource-aware-scheduling.md).

## Ambiente di servizio
<a name="component_service_environment"></a>

Un ambiente di servizio definisce il modo in cui AWS Batch si integra con SageMaker l'esecuzione del lavoro. Gli ambienti di servizio AWS Batch consentono di inviare e gestire i lavori fornendo al SageMaker contempo le funzionalità di coda, pianificazione e gestione delle priorità di. AWS Batch Gli ambienti di servizio definiscono i limiti di capacità per tipi di servizi specifici, ad esempio i lavori di formazione SageMaker . I limiti di capacità controllano le risorse massime che possono essere utilizzate dai lavori di assistenza nell'ambiente. Per ulteriori informazioni, consulta [Ambienti di servizio per AWS Batch](service-environments.md).

## Lavoro di servizio
<a name="component_service_job"></a>

Un service job è un'unità di lavoro che viene inviata AWS Batch per essere eseguita in un ambiente di servizio. I lavori di assistenza sfruttano le funzionalità AWS Batch di coda e pianificazione di cui dispongono, delegando al contempo l'esecuzione effettiva al servizio esterno. Ad esempio, i lavori di SageMaker formazione inviati come lavori di servizio vengono messi in coda e hanno priorità per AWS Batch, ma l'esecuzione dei lavori di formazione avviene all'interno dell'infrastruttura di intelligenza artificiale. SageMaker SageMaker Questa integrazione consente ai data scientist e agli ingegneri ML di trarre vantaggio dalla gestione automatizzata dei carichi AWS Batch di lavoro e dall'accodamento prioritario per i loro carichi di lavoro di formazione sull'intelligenza artificiale. SageMaker I lavori di assistenza possono fare riferimento ad altri lavori per nome o ID e supportare le dipendenze tra i lavori. Per ulteriori informazioni, consulta [Lavori di assistenza in AWS Batch](service-jobs.md).