API dell'endpoint di inferenza Neptune ML - Amazon Neptune

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

API dell'endpoint di inferenza Neptune ML

Azioni dell'endpoint di inferenza:

CreateMLEndpoint (azione)

        Il nome AWS CLI per questa API è: create-ml-endpoint.

Crea un nuovo endpoint di inferenza Neptune ML che consente di eseguire query su un modello specifico creato dal processo di addestramento del modello. Consulta Gestione degli endpoint di inferenza mediante il comando endpoints.

Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:CreateMLEndpoint nel cluster.

Richiesta

  • id (nella CLI: --id): una stringa di tipo string (una stringa con codifica UTF-8).

    L'identificatore univoco per l'endpoint. L'impostazione predefinita è un nome con timestamp generato automaticamente.

  • instanceCount (nella CLI: --instance-count): un valore Integer di tipo integer (numero intero a 32 bit con segno).

    Il numero minimo di istanze Amazon EC2 da implementare su un endpoint ai fini della previsione. Il valore predefinito è 1.

  • instanceType (nella CLI: --instance-type): una stringa di tipo string (una stringa con codifica UTF-8).

    Il tipo di istanza Neptune ML da utilizzare per la manutenzione online. Il valore predefinito è ml.m5.xlarge. La scelta dell'istanza ML per un endpoint di inferenza dipende dal tipo di attività, dalla dimensione del grafo e dal budget.

  • mlModelTrainingJobId (nella CLI: --ml-model-training-job-id): una stringa di tipo string (una stringa con codifica UTF-8).

    L'ID del processo di addestramento del modello completato che ha creato il modello a cui punterà l'endpoint di inferenza. Devi fornire mlModelTrainingJobId o mlModelTransformJobId.

  • mlModelTransformJobId (nella CLI: --ml-model-transform-job-id): una stringa di tipo string (una stringa con codifica UTF-8).

    L'ID del processo di trasformazione del modello completato. Devi fornire mlModelTrainingJobId o mlModelTransformJobId.

  • modelName (nella CLI: --model-name): una stringa di tipo string (una stringa con codifica UTF-8).

    Tipo di modello per l'addestramento. Per impostazione predefinita, il modello Neptune ML si basa automaticamente sul modelType utilizzato nell'elaborazione dati, ma è possibile specificare un tipo di modello diverso qui. L'impostazione predefinita è rgcn per i grafi eterogenei e kge per i grafi della conoscenza. L'unico valore valido per grafi eterogenei è rgcn. I valori validi per i grafi della conoscenza sono kge, transe, distmult e rotate.

  • neptuneIamRoleArn (nella CLI: --neptune-iam-role-arn): una stringa di tipo string (una stringa con codifica UTF-8).

    L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.

  • update (nella CLI: --update): un valore booleano di tipo boolean [un valore booleano (vero o falso)].

    Se impostato su true, update indica che si tratta di una richiesta di aggiornamento. Il valore predefinito è false. Devi fornire mlModelTrainingJobId o mlModelTransformJobId.

  • volumeEncryptionKMSKey (nella CLI: --volume-encryption-kms-key): una stringa di tipo string (una stringa con codifica UTF-8).

    La chiave Amazon Key Management Service (Amazon KMS) utilizzata da SageMaker per crittografare i dati nel volume di storage collegato alle istanze di calcolo ML che eseguono il job di addestramento. Il valore predefinito è None (Nessuno).

Risposta

  • arn: una stringa di tipo string (una stringa con codifica UTF-8).

    L'ARN per il nuovo endpoint di inferenza.

  • creationTimeInMillis: un valore Long di tipo long (numero intero a 64 bit con segno).

    Il tempo di creazione dell'endpoint, in millisecondi.

  • id: una stringa di tipo string (una stringa con codifica UTF-8).

    L'ID univoco dell'endpoint.

ListMLEndpoints (azione)

        Il nome AWS CLI per questa API è: list-ml-endpoints.

Elenca gli endpoint di inferenza esistenti. Consulta Gestione degli endpoint di inferenza mediante il comando endpoints.

Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:ListMLEndpoints nel cluster.

Richiesta

  • maxItems (nella CLI: --max-items): un valore ListMLEndpointsInputMaxItemsInteger di tipo integer (numero intero a 32 bit con segno), non meno di 1 o più di 1.024 ?st?s.

    Il numero massimo di elementi da restituire (da 1 a 1024; l'impostazione predefinita è 10).

  • neptuneIamRoleArn (nella CLI: --neptune-iam-role-arn): una stringa di tipo string (una stringa con codifica UTF-8).

    L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.

Risposta

  • ids: una stringa di tipo string (una stringa con codifica UTF-8).

    Una pagina dell'elenco di ID degli endpoint di inferenza.

GetMLEndpoint (azione)

        Il nome AWS CLI per questa API è: get-ml-endpoint.

Recupera i dettagli su un endpoint di inferenza. Consulta Gestione degli endpoint di inferenza mediante il comando endpoints.

Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:GetMLEndpointStatus in quel cluster.

Richiesta

  • id (nella CLI: --id): Obbligatorio: una stringa di tipo string (una stringa con codifica UTF-8).

    L'identificatore univoco per l'endpoint.

  • neptuneIamRoleArn (nella CLI: --neptune-iam-role-arn): una stringa di tipo string (una stringa con codifica UTF-8).

    L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.

Risposta

  • endpoint: un oggetto MlResourceDefinition.

    La definizione dell'endpoint.

  • endpointConfig: un oggetto MlConfigDefinition.

    La configurazione dell'endpoint.

  • id: una stringa di tipo string (una stringa con codifica UTF-8).

    L'identificatore univoco per l'endpoint.

  • status: una stringa di tipo string (una stringa con codifica UTF-8).

    Lo stato dell'endpoint di inferenza.

DeleteMLEndpoint (azione)

        Il nome AWS CLI per questa API è: delete-ml-endpoint.

Annulla la creazione di un endpoint di inferenza Neptune ML. Consulta Gestione degli endpoint di inferenza mediante il comando endpoints.

Quando si richiama questa operazione in un cluster Neptune in cui è abilitata l'autenticazione IAM, all'utente o al ruolo IAM che effettua la richiesta deve essere associata una policy che consenta l'azione IAM neptune-db:DeleteMLEndpoint nel cluster.

Richiesta

  • clean (nella CLI: --clean): un valore booleano di tipo boolean [un valore booleano (vero o falso)].

    Se questo flag è impostato su TRUE, tutti gli artefatti Neptune ML S3 devono essere eliminati quando il job viene interrotto. Il valore predefinito è FALSE.

  • id (nella CLI: --id): Obbligatorio: una stringa di tipo string (una stringa con codifica UTF-8).

    L'identificatore univoco per l'endpoint.

  • neptuneIamRoleArn (nella CLI: --neptune-iam-role-arn): una stringa di tipo string (una stringa con codifica UTF-8).

    L'ARN di un ruolo IAM che fornisce a Neptune l'accesso alle risorse SageMaker e Amazon S3. Deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.

Risposta

  • status: una stringa di tipo string (una stringa con codifica UTF-8).

    Lo stato dell'annullamento.