Anfügen von EI an eine Notebook-Instance - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Anfügen von EI an eine Notebook-Instance

Um die Inferenzleistung mithilfe von EI zu testen und auszuwerten, können Sie EI an eine Notebook-Instance anfügen, wenn Sie eine Notebook-Instance erstellen oder aktualisieren. Anschließend können Sie EI im lokalen Modus verwenden, um ein Modell an einem Endpunkt, der auf der Notebook-Instance gehostet wird, zu hosten. Testen Sie verschiedene Größen von Notebook-Instances und EI-Accelerators, um die Konfiguration zu ermitteln, die sich am besten für Ihren Anwendungsfall eignet.

Einrichtung für die Verwendung von EI

Um EI lokal in einer Notebook-Instance zu verwenden, erstellen Sie eine Notebook-Instance mit einer EI-Instance.

So erstellen Sie eine Notebook-Instance mit einer EI-Instance
  1. Öffnen Sie die SageMaker Amazon-Konsole unter https://console.aws.amazon.com/sagemaker/.

  2. Klicken im Navigationsbereich auf Notebook instances (Notebook-Instances).

  3. Wählen Sie Create notebook instance (Notebook-Instance erstellen) aus.

  4. Geben Sie als Notebook instance name (Notebook-Instance-Name) einen eindeutigen Namen für Ihre Notebook-Instance an.

  5. Wählen Sie als notebook instance type (Notebook-Instance-Typ) eine CPU-Instance wie z. B. ml.t2.medium.

  6. Wählen Sie für Elastic Inference (EI) eine Instance aus der Liste aus, z. B. ml.eia2.medium.

  7. Wählen Sie für die IAM-Rolle eine IAM-Rolle aus, die über die erforderlichen Nutzungsberechtigungen SageMaker und EI verfügt.

  8. (Optional) Wenn Sie möchten, dass die Notebook-Instance eine VPC verwendet, wählen Sie für VPC – Optional eine VPC aus der Liste der zur Verfügung stehenden aus. Andernfalls lassen Sie den Wert auf No VPC (Keine VPC). Wenn Sie eine VPC verwenden, befolgen Sie die Anweisungen unter Verwenden einer benutzerdefinierten VPC zum Herstellen einer Verbindung mit EI.

  9. (Optional) Für die Option Lifecycle configuration – optional (Lebenszykluskonfiguration – optional) können Sie entweder die Option No configuration (Keine Konfiguration) beibehalten oder eine Lebenszykluskonfiguration auswählen. Weitere Informationen finden Sie unter Passen Sie eine SageMaker Notebook-Instanz mithilfe eines LCC-Skripts an.

  10. (Optional) Für Verschlüsselungsschlüssel — optional, optional) Wenn Sie einen Schlüssel AWS Key Management Service (AWS KMS) verwenden möchten, SageMaker um Daten auf dem ML-Speichervolume zu verschlüsseln, das mit der Notebook-Instance verbunden ist, geben Sie den Schlüssel an.

  11. (Optional) Belassen Sie den Standardwert für Volume Size In GB – optional (Volume-Größe in GB – optional) bei 5.

  12. (Optional) Für Tags können Sie Tags zur Notebook-Instance hinzufügen. Ein Tag ist eine Markierung, die Sie zuweisen, um die Verwaltung Ihrer Notebook-Instances zu erleichtern. Ein Tag besteht aus einem Schlüssel und einem Wert, die Sie beide selbst definieren können.

  13. Wählen Sie Create Notebook-Instance (Notebook-Instance erstellen) aus.

Nachdem Sie Ihre Notebook-Instance mit angefügtem EI erstellt haben, können Sie ein Jupyter Notebook erstellen und einen EI-Endpunkt einrichten, der lokal auf der Notebook-Instance gehostet wird.

Verwenden Sie EI im lokalen Modus in SageMaker

Um EI lokal auf einem Endpunkt zu verwenden, der auf einer Notebook-Instance gehostet wird, verwenden Sie den lokalen Modus mit den Amazon SageMaker Python SDK-Versionen von MXNet, PyTorch Estimators oder Models. TensorFlow Weitere Informationen zur Unterstützung des lokalen Modus im SageMaker Python-SDK finden Sie unter https://github.com/aws/sagemaker-python-sdk#sagemaker-python-sdk-overview.

Verwenden Sie EI im lokalen Modus mit SageMaker TensorFlow Schätzern und Modellen

Um EI TensorFlow im lokalen Modus zu verwenden, geben Sie an, wann instance_type und local local_sagemaker_notebook für accelerator_type wann Sie die deploy Methode eines Schätzers oder eines Modellobjekts aufrufen. Weitere Informationen zu Amazon SageMaker Python TensorFlow SDK-Schätzern und -Modellen finden Sie unter https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/index.html.

Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Um die Methode deploy aufzurufen, muss eine der folgenden Voraussetzung erfüllt sein:

  • Sie haben das Modell durch Aufrufen der Methode fit einer Schätzfunktion trainiert.

  • Sie übergeben ein Modellartefakt, wenn Sie das Modellobjekt initialisieren.

# Deploys the model to a local endpoint tf_predictor = tf_model.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

Verwenden Sie EI im lokalen Modus mit SageMaker Apache MXNet-Schätzern und -Modellen

Um EI mit MXNet im lokalen Modus zu verwenden, geben Sie local für instance_type und local_sagemaker_notebook für accelerator_type an, wenn Sie die Methode deploy eines Schätzfunktion- oder Modell-Objekts aufrufen. Weitere Informationen zu den MXNet-Schätzern und -Modellen des Amazon SageMaker Python SDK finden Sie unter https://sagemaker.readthedocs.io/en/stable/frameworks/mxnet/index.html.

Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Sie müssen zuvor die Methode fit der Schätzfunktion aufgerufen haben, um das Modell zu trainieren.

# Deploys the model to a local endpoint mxnet_predictor = mxnet_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

Ein vollständiges Beispiel für die Verwendung von EI im lokalen Modus mit MXNet finden Sie im Beispielnotizbuch unter https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/mxnet_mnist/mxnet_mnist_elastic_inference_local.html.

Verwenden Sie EI im lokalen Modus mit SageMaker PyTorch Schätzern und Modellen

Um EI PyTorch im lokalen Modus zu verwenden, geben Sie beim Aufrufen der deploy Methode eines Schätzers oder eines Modellobjekts local for instance_type und local_sagemaker_notebook for an. accelerator_type Weitere Informationen zu PyTorch Schätzern und Modellen des Amazon SageMaker Python SDK finden Sie unter SageMaker PyTorch Schätzer und Modelle.

Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Sie müssen zuvor die Methode fit der Schätzfunktion aufgerufen haben, um das Modell zu trainieren.

# Deploys the model to a local endpoint pytorch_predictor = pytorch_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')