Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
API di addestramento del modello Neptune ML
Azioni di addestramento del modello:
Strutture di addestramento del modello:
StartMLModelTrainingJob (azione)
Il nome AWS CLI per questa API è: start-ml-model-training-job
.
Crea un nuovo processo di addestramento del modello Neptune ML. Vedi Addestramento del modello mediante il comando modeltraining
.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:StartMLModelTrainingJob nel cluster.
Richiesta
-
baseProcessingInstanceType (nella CLI:
--base-processing-instance-type
): una stringa di tipostring
(una stringa con codifica UTF-8).Il tipo di istanza ML utilizzata nella preparazione e gestione dell'addestramento del modello ML. Si tratta di un'istanza CPU scelta in base ai requisiti di memoria per l'elaborazione dei dati e del modello di addestramento.
-
customModelTrainingParameters (nella CLI:
--custom-model-training-parameters
): un oggetto CustomModelTrainingParameters.La configurazione per l'addestramento di modelli personalizzati. Questo è un oggetto JSON.
-
dataProcessingJobId (nella CLI:
--data-processing-job-id
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).L'ID del processo di elaborazione dati completato che ha creato i dati utilizzato durante l'addestramento.
-
enableManagedSpotTraining (nella CLI:
--enable-managed-spot-training
): un valore booleano di tipoboolean
[un valore booleano (vero o falso)].Ottimizza il costo per l'addestramento del modello di machine learning utilizzando le istanze spot di Amazon Elastic Compute Cloud. Il valore predefinito è
False
. -
id (nella CLI:
--id
): una stringa di tipostring
(una stringa con codifica UTF-8).Un identificatore univoco per il nuovo job. L'impostazione predefinita è Un UUID generato automaticamente.
-
maxHPONumberOfTrainingJobs (nella CLI:
--max-hpo-number-of-training-jobs
): un valore Integer di tipointeger
(numero intero a 32 bit con segno).Numero totale massimo di processi di addestramento da avviare per il processo di ottimizzazione degli iperparametri. Il valore predefinito è 2. Neptune ML ottimizza automaticamente gli iperparametri del modello di machine learning. Per ottenere un modello che funzioni correttamente, utilizza almeno 10 processi (in altre parole, imposta
maxHPONumberOfTrainingJobs
su 10). In generale, maggiore è il numero di esecuzioni di ottimizzazione, migliori sono i risultati. -
maxHPOParallelTrainingJobs (nella CLI:
--max-hpo-parallel-training-jobs
): un valore Integer di tipointeger
(numero intero a 32 bit con segno).Numero massimo di processi di addestramento paralleli da avviare per il processo di ottimizzazione degli iperparametri. Il valore predefinito è 2. Il numero di processi paralleli che è possibile eseguire è limitato dalle risorse disponibili sull'istanza di addestramento.
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
-
previousModelTrainingJobId (nella CLI:
--previous-model-training-job-id
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ID di un processo di addestramento del modello completato che si desidera aggiornare in modo incrementale in base ai dati aggiornati.
-
s3OutputEncryptionKMSKey (nella CLI:
--s-3-output-encryption-kms-key
): una stringa di tipostring
(una stringa con codifica UTF-8).La chiave Amazon Key Management Service (KMS) utilizzata da SageMaker per crittografare l'output del job di elaborazione. Il valore predefinito è none.
-
sagemakerIamRoleArn (nella CLI:
--sagemaker-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM per l'esecuzione di SageMaker. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
-
securityGroupIds (nella CLI:
--security-group-ids
): una stringa di tipostring
(una stringa con codifica UTF-8).Gli ID del gruppo di sicurezza VPC. Il valore predefinito è None (Nessuno).
-
subnets (nella CLI:
--subnets
): una stringa di tipostring
(una stringa con codifica UTF-8).Gli ID delle sottoreti nel VPC Neptune. Il valore predefinito è None (Nessuno).
-
trainingInstanceType (nella CLI:
--training-instance-type
): una stringa di tipostring
(una stringa con codifica UTF-8).Il tipo di istanza ML utilizzato per l'addestramento del modello. Tutti i modelli Neptune ML supportano l'addestramento su CPU, GPU e multiGPU. Il valore predefinito è
ml.p3.2xlarge
. La scelta del tipo di istanza giusto per l'addestramento dipende dal tipo di attività, dalla dimensione del grafo e dal budget. -
trainingInstanceVolumeSizeInGB (nella CLI:
--training-instance-volume-size-in-gb
): un valore Integer di tipointeger
(numero intero a 32 bit con segno).La dimensione del volume del disco dell'istanza di addestramento. Sia i dati di input che il modello di output vengono archiviati su disco, quindi le dimensioni del volume devono essere sufficientemente grandi da contenere entrambi i set di dati. Il valore predefinito è 0. Se non è specificato o è pari a 0, Neptune ML seleziona la dimensione del volume del disco in base al suggerimento generato nella fase di elaborazione dati.
-
trainingTimeOutInSeconds (nella CLI:
--training-time-out-in-seconds
): un valore Integer di tipointeger
(numero intero a 32 bit con segno).Timeout in secondi per il processo di addestramento. Il valore predefinito è 86.400 (1 giorno).
-
trainModelS3Location (nella CLI:
--train-model-s3-location
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).La posizione di Amazon S3 in cui devono essere archiviati gli artefatti del modello.
-
volumeEncryptionKMSKey (nella CLI:
--volume-encryption-kms-key
): una stringa di tipostring
(una stringa con codifica UTF-8).La chiave Amazon Key Management Service (KMS) utilizzata da SageMaker per crittografare i dati nel volume di storage collegato alle istanze di calcolo ML che eseguono il job di addestramento. Il valore predefinito è None (Nessuno).
Risposta
-
arn: una stringa di tipo
string
(una stringa con codifica UTF-8).L'ARN del processo di addestramento del nuovo modello.
-
creationTimeInMillis: un valore Long di tipo
long
(numero intero a 64 bit con segno).Il tempo per la creazione del processo di addestramento del modello, in millisecondi.
-
id: una stringa di tipo
string
(una stringa con codifica UTF-8).L'ID univoco del nuovo processo di addestramento del modello.
Errori
ListMLModelTrainingJobs (azione)
Il nome AWS CLI per questa API è: list-ml-model-training-jobs
.
Elenca i processi di addestramento del modello Neptune ML. Vedi Addestramento del modello mediante il comando modeltraining
.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:ListMLModelTrainingJobs nel cluster.
Richiesta
-
maxItems (nella CLI:
--max-items
): un valore ListMLModelTrainingJobsInputMaxItemsInteger di tipointeger
(numero intero a 32 bit con segno), non meno di 1 o più di 1.024 ?st?s.Il numero massimo di elementi da restituire (da 1 a 1024; l'impostazione predefinita è 10).
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
ids: una stringa di tipo
string
(una stringa con codifica UTF-8).Una pagina con l'elenco degli ID dei processi di addestramento del modello.
Errori
GetMLModelTrainingJob (azione)
Il nome AWS CLI per questa API è: get-ml-model-training-job
.
Recupera informazioni su un processo di addestramento del modello Neptune ML. Vedi Addestramento del modello mediante il comando modeltraining
.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:GetMLModelTrainingJobStatus in quel cluster.
Richiesta
-
id (nella CLI:
--id
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).L'identificatore univoco del processo di addestramento del modello da recuperare.
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
hpoJob: un oggetto MlResourceDefinition.
Il processo HPO.
-
id: una stringa di tipo
string
(una stringa con codifica UTF-8).L'identificatore univoco di questo processo di addestramento del modello.
-
mlModels: una matrice di oggetti MlConfigDefinition.
Un elenco delle configurazioni dei modelli ML utilizzati.
-
modelTransformJob: un oggetto MlResourceDefinition.
Il processo di trasformazione del modello.
-
processingJob: un oggetto MlResourceDefinition.
Il processo di elaborazione dati.
-
status: una stringa di tipo
string
(una stringa con codifica UTF-8).Lo stato del processo di addestramento del modello.
Errori
CancelMLModelTrainingJob (azione)
Il nome AWS CLI per questa API è: cancel-ml-model-training-job
.
Arresta un processo di addestramento del modello Neptune ML. Vedi Addestramento del modello mediante il comando modeltraining
.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:CancelMLModelTrainingJob nel cluster.
Richiesta
-
clean (nella CLI:
--clean
): un valore booleano di tipoboolean
[un valore booleano (vero o falso)].Se impostato su
TRUE
, questo flag specifica che tutti gli artefatti Amazon S3 devono essere eliminati quando il processo viene interrotto. Il valore predefinito èFALSE
. -
id (nella CLI:
--id
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).L'identificatore univoco del processo di addestramento del modello da annullare.
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
status: una stringa di tipo
string
(una stringa con codifica UTF-8).Lo stato dell'annullamento.
Errori
Strutture di addestramento del modello:
CustomModelTrainingParameters (struttura)
Contiene parametri personalizzati per l'addestramento del modello. Consulta Modelli personalizzati in Neptune ML.
Campi
-
sourceS3DirectoryPath: Obbligatorio: una stringa di tipo
string
(una stringa con codifica UTF-8).Il percorso della posizione Amazon S3 in cui si trova il modulo Python che implementa il modello. Deve indicare una posizione Amazon S3 esistente valida che contenga almeno uno script di addestramento, uno script di trasformazione e un file
model-hpo-configuration.json
. -
trainingEntryPointScript: questa è una stringa di tipo
string
(una stringa con codifica UTF-8).Il nome del punto di ingresso nel modulo di uno script che esegue l'addestramento del modello e accetta gli iperparametri come argomenti della riga di comando, inclusi gli iperparametri fissi. Il valore predefinito è
training.py
. -
transformEntryPointScript: questa è una stringa di tipo
string
(una stringa con codifica UTF-8).Il nome del punto di ingresso nel modulo di uno script che deve essere eseguito dopo aver identificato il modello migliore ottenuto dalla ricerca degli iperparametri, in modo da calcolare gli artefatti del modello necessari per l'implementazione del modello. Deve poter essere eseguito senza argomenti della riga di comando. L'impostazione predefinita è
transform.py
.