JupyterLab または Studio Classic で Jupyter AI を使用する - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

JupyterLab または Studio Classic で Jupyter AI を使用する

チャット UI JupyterLab またはノートブックセルから言語モデルを呼び出すことで、 または Studio Classic で Jupyter AI を使用できます。以下のセクションでは、これを完了するために必要なステップについて説明します。

チャット UI から言語モデルを使用する

チャット UI テキストボックスにメッセージを作成して、モデルの操作を開始します。メッセージ履歴をクリアするには、 /clear コマンドを使用します。

注記

メッセージ履歴をクリアしても、モデルプロバイダーとのチャットコンテキストは消去されません。

ノートブックセルの言語モデルを使用する

%%ai および %ai コマンドを使用して言語モデルを呼び出す前に、 JupyterLab または Studio Classic ノートブックセルで次のコマンドを実行してIPython拡張機能をロードします。

%load_ext jupyter_ai_magics
  • によってホストされるモデルの場合 AWS:

    • にデプロイされたモデルを呼び出すには SageMaker、以下の必要なパラメータを使用して 文字列を%%aiマジックコマンドsagemaker-endpoint:endpoint-nameに渡してから、次の行にプロンプトを追加します。

      次の表は、 SageMaker または Amazon Bedrock によってホストされるモデルを呼び出すときに必要なパラメータとオプションパラメータを示しています。

      パラメーター名 パラメータ ショートバージョン 説明
      リクエストスキーマ --request-schema -q 必須: エンドポイントが期待するJSONオブジェクト。プロンプトは文字列リテラル に一致する任意の値に置き換えられます<prompt>
      リージョン名 --region-name -n 必須: モデルがデプロイされる AWS リージョン 場所。
      レスポンスパス --response-path -p 必須: エンドポイントのJSONレスポンスから言語モデルの出力を抽出するために使用されるJSONPath文字列。
      追加モデルパラメータ --model-parameters -m オプション : モデルに渡される追加のパラメータを指定するJSON値。受け入れられた値はディクショナリに解析され、アンパックされ、プロバイダークラスに直接渡されます。これは、エンドポイントまたはモデルにカスタムパラメータが必要な場合に役立ちます。例えば、エンドユーザーライセンス契約 (EULA) を承諾する必要がある場合、Llama 2 モデルでは、 を使用してエンドポイントにEULA承諾を渡すことができます-m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}}。または、 -mパラメータを使用して、モデルで生成されたレスポンスの最大トークン数を設定するなど、追加のモデルパラメータを渡すこともできます。例えば、AI21Labs Jurassic モデルを使用する場合: -m {"model_kwargs":{"maxTokens":256}}
      出力形式 --format -f オプション : 出力のレンダリングに使用されるIPythonディスプレイ。呼び出されたモデルが指定された形式をサポートしている限り[code|html|image|json|markdown|math|md|text]、次のいずれかの値にすることができます。

      次のコマンドは、 がホストする Llama2-7b モデルを呼び出します SageMaker。

      %%ai sagemaker-endpoint:jumpstart-dft-meta-textgeneration-llama-2-7b -q {"inputs":"<prompt>","parameters":{"max_new_tokens":64,"top_p":0.9,"temperature":0.6,"return_full_text":false}} -n us-east-2 -p [0].generation -m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}} -f text Translate English to French: sea otter => loutre de mer peppermint => menthe poivrée plush girafe => girafe peluche cheese =>

      次の例では、 がホストする Flan-t5-small モデルを呼び出します SageMaker。

      %%ai sagemaker-endpoint:hf-text2text-flan-t5-small --request-schema={"inputs":"<prompt>","parameters":{"num_return_sequences":4}} --region-name=us-west-2 --response-path=[0]["generated_text"] -f text What is the atomic number of Hydrogen?
    • Amazon Bedrock にデプロイされたモデルを呼び出すには、 JumpStart または Amazon Bedrock でホストされているモデルを呼び出すためのパラメータのリストで定義されているオプションのパラメータを使用して、 文字列bedrock:model-name%%aiマジックコマンドに渡し、次の行にプロンプトを追加します。

      次の例では、Amazon Bedrock がホストする AI21 Labs Jurassic-2 モデルを呼び出します。

      %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":256}} -f code Write a function in python implementing a bubbble sort.
  • サードパーティープロバイダーがホストするモデルの場合

    サードパーティープロバイダーがホストするモデルを呼び出すには、オプションの を使用して 文字列を%%aiマジックコマンドprovider-id:model-nameに渡してからOutput format、次の行にプロンプトを追加します。ID を含む各プロバイダーの詳細については、モデルプロバイダーの Jupyter AI リスト を参照してください。

    次のコマンドは、Anthropic Claude モデルに、黒い境界を持つ白い四角形の画像を含むHTMLファイルを出力するように要求します。

    %%ai anthropic:claude-v1.2 -f html Create a square using SVG with a black border and white fill.