Verwalten von Inferenzendpunkten mit dem Befehl endpoints - Amazon Neptune

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verwalten von Inferenzendpunkten mit dem Befehl endpoints

Mit dem Neptune-ML-Befehl endpoints können Sie einen Inferenzendpunkt erstellen, seinen Status überprüfen, ihn löschen oder vorhandene Inferenzendpunkte auflisten.

Erstellen eines Inferenzendpunkts mit dem Neptune ML-Befehl endpoints

Ein Neptune-ML-Befehl endpoints zum Erstellen eines Inferenzendpunkts aus einem Modell, das durch einen Trainingsauftrag erstellt wurde, sieht wie folgt aus:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Ein Neptune-ML-Befehl endpoints zum Aktualisieren eines Inferenzendpunkts aus einem Modell, das durch einen Trainingsauftrag erstellt wurde, sieht wie folgt aus:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'

Ein Neptune-ML-Befehl endpoints zum Erstellen eines Inferenzendpunkts aus einem Modell, das durch einen Modelltransformationsauftrag erstellt wurde, sieht wie folgt aus:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'

Ein Neptune-ML-Befehl endpoints zum Aktualisieren eines Inferenzendpunkts aus einem Modell, das durch einen Modelltransformationsauftrag erstellt wurde, sieht wie folgt aus:

curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'
Parameter für die Erstellung von Inferenzendpunkten mit endpoints
  • id   –   (Optional) Eine eindeutige ID für den neuen Inferenzendpunkt.

    Typ: Zeichenfolge. Standard: Ein automatisch generierter Name mit Zeitstempel.

  • mlModelTrainingJobId   –   Die Auftrags-ID des abgeschlossenen Modelltrainingsauftrags, der das Modell erstellt hat, auf das der Inferenzendpunkt verweisen wird.

    Typ: Zeichenfolge.

    Hinweis: Sie müssen entweder die mlModelTrainingJobId oder die mlModelTransformJobId angeben.

  • mlModelTransformJobId   –   Die Auftrags-ID eines abgeschlossenen Modelltransformationsauftrags.

    Typ: Zeichenfolge.

    Hinweis: Sie müssen entweder die mlModelTrainingJobId oder die mlModelTransformJobId angeben.

  • update   –   (Optional) Wenn vorhanden, gibt dieser Parameter an, dass es sich um eine Aktualisierungsanforderung handelt.

    Typ: boolesch. Standardwert: false

    Hinweis: Sie müssen entweder die mlModelTrainingJobId oder die mlModelTransformJobId angeben.

  • neptuneIamRoleArn   –   (Optional) Der ARN einer IAM-Rolle, die Neptune den Zugriff auf SageMaker- und Amazon-S3-Ressourcen bereitstellt.

    Typ: Zeichenfolge. Hinweis: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.

  • modelName   –   (Optional) Modelltyp für das Training. Standardmäßig basiert das ML-Modell automatisch auf dem modelType, der in der Datenverarbeitung verwendet wird. Sie können hier jedoch einen anderen Modelltyp angeben.

    Typ: Zeichenfolge. Standardwert: rgcn für heterogene Diagramme und kge für Wissensdiagramme. Gültige Werte: für heterogene Diagramme: rgcn. Für Wissensdiagramme: kge, transe, distmult oder rotate.

  • instanceType   –   (Optional) Der Typ der ML-Instance, die für die Online-Bereitstellung verwendet wird.

    Typ: Zeichenfolge. Standardwert: ml.m5.xlarge.

    Hinweis: Die Auswahl der ML-Instance für einen Inferenzendpunkt ist von Aufgabentyp, Diagrammgröße und Budget abhängig. Siehe Auswahl einer Instance für einen Inferenzendpunkt.

  • instanceCount   –   (Optional) Die Mindestanzahl von Amazon-EC2-Instances, die auf einem Endpunkt bereitgestellt werden sollen, um Vorhersagen zu erstellen.

    Typ: Ganzzahl. Standardwert: 1.

  • volumeEncryptionKMSKey   –   (Optional) Der Schlüssel AWS Key Management Service (AWS KMS), den SageMaker für die Verschlüsselung von Daten auf dem Speichervolume verwendet, das den ML-Datenverarbeitungs-Instances angefügt ist, die die Endpunkte ausführen.

    Typ: Zeichenfolge. Standardwert: keiner.

Abrufen des Status eines Inferenzendpunkts mit dem Neptune-ML-Befehl endpoints

Dies ist ein Beispiel für den Neptune-ML-Befehl endpoints für den Abruf des Status eines Instance-Endpunkts:

curl -s \ "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \ | python -m json.tool
Parameter für den Abruf des Instance-Endpunktstatus mit endpoints
  • id   –   (Erforderlich) Die eindeutige ID des Inferenzendpunkts.

    Typ: Zeichenfolge.

  • neptuneIamRoleArn   –   (Optional) Der ARN einer IAM-Rolle, die Neptune den Zugriff auf SageMaker- und Amazon-S3-Ressourcen bereitstellt.

    Typ: Zeichenfolge. Hinweis: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.

Löschen eines Instance-Endpunkts mit dem Neptune-ML-Befehl endpoints

Dies ist ein Beispiel für den Neptune-ML-Befehl endpoints für das Löschen des Status eines Instance-Endpunkts:

curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"

Oder:

curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"
Parameter zum Löschen eines Inferenzendpunkts mit endpoints
  • id   –   (Erforderlich) Die eindeutige ID des Inferenzendpunkts.

    Typ: Zeichenfolge.

  • neptuneIamRoleArn   –   (Optional) Der ARN einer IAM-Rolle, die Neptune den Zugriff auf SageMaker- und Amazon-S3-Ressourcen bereitstellt.

    Typ: Zeichenfolge. Hinweis: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.

  • clean   –   (Optional) Gibt an, dass alle Artefakte, die sich auf diesen Endpunkt beziehen, ebenfalls gelöscht werden sollen.

    Typ: boolesch. Standardwert: FALSE.

Auflisten von Inferenzendpunkten mit dem Neptune ML-Befehl endpoints

Dies ist ein Neptune-ML-Befehl endpoints zum Auflisten von Inferenzendpunkten:

curl -s "https://(your Neptune endpoint)/ml/endpoints" \ | python -m json.tool

Oder:

curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \ | python -m json.tool
Parameter zum Auflisten von Inferenzendpunkten mit dataprocessing
  • maxItems   –   (Optional) Die maximale Anzahl der Elemente, die zurückgegeben werden sollen.

    Typ: Ganzzahl. Standardwert: 10. Maximal zulässiger Wert: 1024.

  • neptuneIamRoleArn   –   (Optional) Der ARN einer IAM-Rolle, die Neptune den Zugriff auf SageMaker- und Amazon-S3-Ressourcen bereitstellt.

    Typ: Zeichenfolge. Hinweis: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.