Verwenden Sie Jupyter AI in oder Studio Classic JupyterLab - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Verwenden Sie Jupyter AI in oder Studio Classic JupyterLab

Verwenden Sie Sprachmodelle aus der Chat-Benutzeroberfläche

Verfassen Sie Ihre Nachricht im Textfeld der Chat-Benutzeroberfläche, um mit der Interaktion mit Ihrem Modell zu beginnen. Verwenden Sie den /clear Befehl, um den Nachrichtenverlauf zu löschen.

Anmerkung

Durch das Löschen des Nachrichtenverlaufs wird der Chat-Kontext mit dem Modellanbieter nicht gelöscht.

Verwenden Sie Sprachmodelle aus Notebookzellen

Bevor Sie mit den %ai Befehlen %%ai und ein Sprachmodell aufrufen, laden Sie die IPython Erweiterung, indem Sie den folgenden Befehl in einer Notebookzelle JupyterLab oder Studio Classic ausführen.

%load_ext jupyter_ai_magics
  • Für Modelle, die gehostet werden von AWS:

    • Um ein in bereitgestelltes Modell aufzurufen SageMaker, übergeben Sie die Zeichenfolge mit den unten angegebenen erforderlichen Parametern sagemaker-endpoint:endpoint-name an den %%ai magischen Befehl und fügen Sie dann Ihre Eingabeaufforderung in den folgenden Zeilen hinzu.

      In der folgenden Tabelle sind die erforderlichen und optionalen Parameter aufgeführt, wenn Modelle aufgerufen werden, die von SageMaker oder Amazon Bedrock gehostet werden.

      Parametername Parameter Kurzversion Beschreibung
      Schema anfordern --request-schema -q Erforderlich: Das JSON Objekt, das der Endpunkt erwartet, wobei die Eingabeaufforderung durch einen beliebigen Wert ersetzt wird, der dem Zeichenkettenliteral <prompt> entspricht.
      Name der Region --region-name -n Erforderlich: Der AWS-Region Ort, an dem das Modell bereitgestellt wird.
      Antwortpfad --response-path -p Erforderlich: Eine JSONPath Zeichenfolge, die verwendet wird, um die Ausgabe des Sprachmodells aus der JSON Antwort des Endpunkts zu extrahieren.
      Zusätzliche Modellparameter --model-parameters -m Optional: Ein JSON Wert, der zusätzliche Parameter angibt, die an das Modell übergeben werden sollen. Der akzeptierte Wert wird in ein Wörterbuch geparst, entpackt und direkt an die Anbieterklasse übergeben. Dies ist nützlich, wenn der Endpunkt oder das Modell benutzerdefinierte Parameter erfordert. Wenn in Llama 2-Modellen beispielsweise die Annahme der Endbenutzer-Lizenzvereinbarung (EULA) erforderlich ist, können Sie die EULA Annahme mit Hilfe von-m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}}. Alternativ können Sie den -m Parameter verwenden, um zusätzliche Modellparameter zu übergeben, z. B. um die maximale Anzahl von Tokens für die generierte Antwort eines Modells festzulegen. Zum Beispiel, wenn Sie mit einem Jurassic-Modell von AI21 Labs arbeiten:. -m {"model_kwargs":{"maxTokens":256}}
      Ausgabeformat --format -f Optional: Das IPython Display, das zum Rendern der Ausgabe verwendet wurde. Es kann sich um einen der folgenden Werte handeln[code|html|image|json|markdown|math|md|text], vorausgesetzt, das aufgerufene Modell unterstützt das angegebene Format.

      Der folgende Befehl ruft ein LLama2-7B-Modell auf, das von gehostet wird. SageMaker

      %%ai sagemaker-endpoint:jumpstart-dft-meta-textgeneration-llama-2-7b -q {"inputs":"<prompt>","parameters":{"max_new_tokens":64,"top_p":0.9,"temperature":0.6,"return_full_text":false}} -n us-east-2 -p [0].generation -m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}} -f text Translate English to French: sea otter => loutre de mer peppermint => menthe poivrée plush girafe => girafe peluche cheese =>

      Das folgende Beispiel ruft ein Flan-T5-Small-Modell auf, das von gehostet wird. SageMaker

      %%ai sagemaker-endpoint:hf-text2text-flan-t5-small --request-schema={"inputs":"<prompt>","parameters":{"num_return_sequences":4}} --region-name=us-west-2 --response-path=[0]["generated_text"] -f text What is the atomic number of Hydrogen?
    • Um ein in Amazon Bedrock bereitgestelltes Modell aufzurufen, übergeben Sie die Zeichenfolge bedrock:model-name mit einem beliebigen optionalen Parameter, der %%ai in der Parameterliste für das Aufrufen von Modellen definiert ist, die von JumpStart oder Amazon Bedrock gehostet werden, und fügen Sie dann Ihre Eingabeaufforderung in den folgenden Zeilen hinzu.

      Im folgenden Beispiel wird ein AI21Labs-Jurassic-2-Modell aufgerufen, das von Amazon Bedrock gehostet wird.

      %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":256}} -f code Write a function in python implementing a bubbble sort.
  • Für Modelle, die von Drittanbietern gehostet werden

    Um ein von Drittanbietern gehostetes Modell aufzurufen, übergeben Sie die Zeichenfolge mit einem optionalen Output formatBefehl provider-id:model-name an den %%ai magischen Befehl und fügen Sie dann Ihre Eingabeaufforderung in den folgenden Zeilen hinzu. Sie finden die Details der einzelnen Anbieter, einschließlich ihrer ID, in der Jupyter AI-Liste der Modellanbieter.

    Mit dem folgenden Befehl wird ein Modell von Anthropic Claude aufgefordert, eine HTML Datei auszugeben, die das Bild eines weißen Quadrats mit schwarzen Rändern enthält.

    %%ai anthropic:claude-v1.2 -f html Create a square using SVG with a black border and white fill.