Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
API dell'endpoint di inferenza Neptune ML
Azioni dell'endpoint di inferenza:
CreateMLEndpoint (azione)
Il nome AWS CLI per questa API è: create-ml-endpoint
.
Crea un nuovo endpoint di inferenza Neptune ML che consente di eseguire query su un modello specifico creato dal processo di addestramento del modello. Consulta Gestione degli endpoint di inferenza mediante il comando endpoints.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:CreateMLEndpoint nel cluster.
Richiesta
-
id (nella CLI:
--id
): una stringa di tipostring
(una stringa con codifica UTF-8).L'identificatore univoco per l'endpoint. L'impostazione predefinita è un nome con timestamp generato automaticamente.
-
instanceCount (nella CLI:
--instance-count
): un valore Integer di tipointeger
(numero intero a 32 bit con segno).Il numero minimo di istanze Amazon EC2 da implementare su un endpoint ai fini della previsione. Il valore predefinito è 1.
-
instanceType (nella CLI:
--instance-type
): una stringa di tipostring
(una stringa con codifica UTF-8).Il tipo di istanza Neptune ML da utilizzare per la manutenzione online. Il valore predefinito è
ml.m5.xlarge
. La scelta dell'istanza ML per un endpoint di inferenza dipende dal tipo di attività, dalla dimensione del grafo e dal budget. -
mlModelTrainingJobId (nella CLI:
--ml-model-training-job-id
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ID del processo di addestramento del modello completato che ha creato il modello a cui punterà l'endpoint di inferenza. Devi fornire
mlModelTrainingJobId
omlModelTransformJobId
. -
mlModelTransformJobId (nella CLI:
--ml-model-transform-job-id
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ID del processo di trasformazione del modello completato. Devi fornire
mlModelTrainingJobId
omlModelTransformJobId
. -
modelName (nella CLI:
--model-name
): una stringa di tipostring
(una stringa con codifica UTF-8).Tipo di modello per l'addestramento. Per impostazione predefinita, il modello Neptune ML si basa automaticamente sul
modelType
utilizzato nell'elaborazione dati, ma è possibile specificare un tipo di modello diverso qui. L'impostazione predefinita èrgcn
per i grafi eterogenei ekge
per i grafi della conoscenza. L'unico valore valido per grafi eterogenei èrgcn
. I valori validi per i grafi della conoscenza sonokge
,transe
,distmult
erotate
. -
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
-
update (nella CLI:
--update
): un valore booleano di tipoboolean
[un valore booleano (vero o falso)].Se impostato su
true
,update
indica che si tratta di una richiesta di aggiornamento. Il valore predefinito èfalse
. Devi forniremlModelTrainingJobId
omlModelTransformJobId
. -
volumeEncryptionKMSKey (nella CLI:
--volume-encryption-kms-key
): una stringa di tipostring
(una stringa con codifica UTF-8).La chiave Amazon Key Management Service (Amazon KMS) utilizzata da SageMaker per crittografare i dati nel volume di storage collegato alle istanze di calcolo ML che eseguono il job di addestramento. Il valore predefinito è None (Nessuno).
Risposta
-
arn: una stringa di tipo
string
(una stringa con codifica UTF-8).L'ARN per il nuovo endpoint di inferenza.
-
creationTimeInMillis: un valore Long di tipo
long
(numero intero a 64 bit con segno).Il tempo di creazione dell'endpoint, in millisecondi.
-
id: una stringa di tipo
string
(una stringa con codifica UTF-8).L'ID univoco dell'endpoint.
Errori
ListMLEndpoints (azione)
Il nome AWS CLI per questa API è: list-ml-endpoints
.
Elenca gli endpoint di inferenza esistenti. Consulta Gestione degli endpoint di inferenza mediante il comando endpoints.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:ListMLEndpoints nel cluster.
Richiesta
-
maxItems (nella CLI:
--max-items
): un valore ListMLEndpointsInputMaxItemsInteger di tipointeger
(numero intero a 32 bit con segno), non meno di 1 o più di 1.024 ?st?s.Il numero massimo di elementi da restituire (da 1 a 1024; l'impostazione predefinita è 10).
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
ids: una stringa di tipo
string
(una stringa con codifica UTF-8).Una pagina dell'elenco di ID degli endpoint di inferenza.
Errori
GetMLEndpoint (azione)
Il nome AWS CLI per questa API è: get-ml-endpoint
.
Recupera i dettagli su un endpoint di inferenza. Consulta Gestione degli endpoint di inferenza mediante il comando endpoints.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:GetMLEndpointStatus in quel cluster.
Richiesta
-
id (nella CLI:
--id
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).L'identificatore univoco per l'endpoint.
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
endpoint: un oggetto MlResourceDefinition.
La definizione dell'endpoint.
-
endpointConfig: un oggetto MlConfigDefinition.
La configurazione dell'endpoint.
-
id: una stringa di tipo
string
(una stringa con codifica UTF-8).L'identificatore univoco per l'endpoint.
-
status: una stringa di tipo
string
(una stringa con codifica UTF-8).Lo stato dell'endpoint di inferenza.
Errori
DeleteMLEndpoint (azione)
Il nome AWS CLI per questa API è: delete-ml-endpoint
.
Annulla la creazione di un endpoint di inferenza Neptune ML. Consulta Gestione degli endpoint di inferenza mediante il comando endpoints.
Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:DeleteMLEndpoint nel cluster.
Richiesta
-
clean (nella CLI:
--clean
): un valore booleano di tipoboolean
[un valore booleano (vero o falso)].Se questo flag è impostato su
TRUE
, tutti gli artefatti Neptune ML S3 devono essere eliminati quando il job viene interrotto. Il valore predefinito èFALSE
. -
id (nella CLI:
--id
): Obbligatorio: una stringa di tipostring
(una stringa con codifica UTF-8).L'identificatore univoco per l'endpoint.
-
neptuneIamRoleArn (nella CLI:
--neptune-iam-role-arn
): una stringa di tipostring
(una stringa con codifica UTF-8).L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
Risposta
-
status: una stringa di tipo
string
(una stringa con codifica UTF-8).Lo stato dell'annullamento.