Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
awsbsub
Invia i lavori alla coda dei lavori del cluster.
awsbsub [-h] [-jn
JOB_NAME
] [-cCLUSTER
] [-cf] [-wWORKING_DIR
] [-pwPARENT_WORKING_DIR
] [-ifINPUT_FILE
] [-pVCPUS
] [-mMEMORY
] [-eENV
] [-ebENV_DENYLIST
] [-rRETRY_ATTEMPTS
] [-tTIMEOUT
] [-nNODES
] [-aARRAY_SIZE
] [-dDEPENDS_ON
] [command
] [arguments
[arguments
...]]
Importante
AWS ParallelCluster non supporta i lavori GPU per. AWS Batch Per ulteriori informazioni, consulta GPU jobs.
Argomenti posizionali
command
-
Invia il lavoro (il comando specificato deve essere disponibile nelle istanze di calcolo) o il nome del file da trasferire. Consulta anche
--command-file
. arguments
-
(Facoltativo) Specifica argomenti per il comando o il file di comando.
Argomenti designati
-jn
JOB_NAME
, --job-nameJOB_NAME
-
I nomi del processo. Il primo carattere deve essere una lettera o un numero. Il nome del lavoro può contenere lettere (sia maiuscole che minuscole), numeri, trattini e caratteri di sottolineatura e avere una lunghezza massima di 128 caratteri.
-c
CLUSTER
, --clusterCLUSTER
-
Specifica il cluster da utilizzare.
-cf, --command-file
-
Indica che il comando è un file da trasferire nelle istanze di calcolo.
Impostazione predefinita: False
-w
WORKING_DIR
, --working-dirWORKING_DIR
-
Specifica la cartella da utilizzare come directory di lavoro del processo. Se non viene specificata una directory di lavoro, il processo viene eseguito nella
job-
sottocartella della home directory dell'utente. Puoi usare questo parametro o il parametro<AWS_BATCH_JOB_ID>
--parent-working-dir
. -pw
PARENT_WORKING_DIR
, --parent-working-dirPARENT_WORKING_DIR
-
Speciifica la cartella principale della directory di lavoro del lavoro. Se non viene specificata una directory di lavoro principale, per impostazione predefinita è la home directory dell'utente. Una sottocartella denominata
job-
viene creata nella directory di lavoro padre. Puoi usare questo parametro o il parametro<AWS_BATCH_JOB_ID>
--working-dir
. -if
INPUT_FILE
, --input-fileINPUT_FILE
-
Specifica il file da trasferire alle istanze di calcolo, nella directory di lavoro del processo. È possibile specificare più parametri di file di input.
-p
VCPUS
, --vcpusVCPUS
-
Specifica il numero di vCPU da prenotare per il container. Se utilizzato insieme a
–nodes
, identifica il numero di vCPU per ogni nodo.Impostazione predefinita: 1
-m
MEMORY
, --memoryMEMORY
-
Specifica il limite di memoria fisico (in MiB) da fornire per il processo. Se il processo tenta di superare il limite di memoria specificato qui, il lavoro viene terminato.
Impostazione predefinita: 128
-e
ENV
, --envENV
-
Specifica un elenco separato da virgola di nomi delle variabili di ambiente da esportare nell'ambiente dei processi. Per esportare tutte le variabili di ambiente, specifica “all”. Tieni presente che un elenco di «tutte» le variabili di ambiente non include quelle elencate nel
–env-blacklist
parametro o le variabili che iniziano con ilAWS_*
prefissoPCLUSTER_*
o. -eb
ENV_DENYLIST
, --env-blacklistENV_DENYLIST
-
Specifica un elenco separato da virgole di nomi di variabili di ambiente da non esportare nell’ambiente dei processi. Per impostazione predefinita,
HOME
,PWD
,USER
,PATH
,LD_LIBRARY_PATH
,TERM
eTERMCAP
non vengono esportate. -r
RETRY_ATTEMPTS
, --retry-attemptsRETRY_ATTEMPTS
-
Speciifica il numero di volte in cui un lavoro deve essere spostato.
RUNNABLE
Puoi specificare da 1 a 10 tentativi. Se il valore dei tentativi è maggiore di 1, il processo viene riprovato se fallisce, finché non passa a unoRUNNABLE
stato per il numero di volte specificato.Impostazione predefinita: 1
-t
TIMEOUT
, --timeoutTIMEOUT
-
Speciifica la durata in secondi (misurata in base al
startedAt
timestamp del tentativo di lavoro) dopo la quale AWS Batch termina il lavoro se non è stato completato. Il valore di timeout deve essere almeno di 60 secondi. -n
NODES
, --nodesNODES
-
Specifica il numero di nodi da prenotare per il processo. Specificate un valore per questo parametro per abilitare l'invio parallelo multinodo.
Nota
Quando il CapacityTypeparametro Scheduler/AwsBatchQueues/è impostato su
SPOT
, i lavori paralleli multinodo non sono supportati. Inoltre, nel tuo account deve essere presente un ruoloAWSServiceRoleForEC2Spot
collegato al servizio. Puoi creare questo ruolo con il seguente comando: AWS CLI$
aws iam create-service-linked-role --aws-service-name spot.amazonaws.com.rproxy.goskope.comPer ulteriori informazioni, consulta il ruolo collegato ai servizi per le richieste di istanze Spot nella Amazon Elastic Compute Cloud User Guide for Linux Instances.
-a
ARRAY_SIZE
, --array-sizeARRAY_SIZE
-
Indica le dimensioni dell’array. Puoi specificare un valore compreso tra 2 e 10.000. Se specifichi proprietà dell'array per un processo, diventa un processo in array.
-d
DEPENDS_ON
, --depends-onDEPENDS_ON
-
Specifica un elenco separato da punti e virgola di dipendenze per un processo. Un processo può dipendere da un massimo di 20 processi. Puoi specificare una dipendenza dal
SEQUENTIAL
tipo senza specificare un ID di lavoro per i job di array. Una dipendenza sequenziale consente a ogni processo in array figlio di terminare sequenzialmente, partendo dall’indice 0. Puoi anche specificare una dipendenza tipo N_TO_N con un ID processo per processi in array. Una dipendenza N_TO_N significa che ogni figlio nell'indice di questo processo deve attendere il completamento del figlio nell'indice corrispondente di ciascuna dipendenza prima di iniziare. <string>La sintassi di questo parametro è «jobID=<string>, type=
;...».