翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
JupyterLab または Studio Classic で Jupyter AI を使用する
チャット UI から言語モデルを使用する
チャット UI テキストボックスにメッセージを作成して、モデルとのやり取りを開始します。メッセージ履歴をクリアするには、 /clear
コマンドを使用します。
注記
メッセージ履歴をクリアしても、モデルプロバイダーとのチャットコンテキストは消去されません。
ノートブックセルから言語モデルを使用する
%%ai
および %ai
コマンドを使用して言語モデルを呼び出す前に、 JupyterLab または Studio Classic ノートブックセルで次のコマンドを実行してIPython拡張機能をロードします。
%load_ext jupyter_ai_magics
-
によってホストされるモデルの場合 AWS:
-
にデプロイされたモデルを呼び出すには SageMaker、以下の必須パラメータを指定
sagemaker-endpoint:
して 文字列をendpoint-name
%%ai
マジックコマンドに渡し、次の行にプロンプトを追加します。次の表に、 SageMaker または Amazon Bedrock によってホストされるモデルを呼び出すときに必須およびオプションのパラメータを示します。
パラメーター名 パラメータ ショートバージョン 説明 リクエストスキーマ --request-schema
-q
必須: エンドポイントが想定するJSONオブジェクト。プロンプトは文字列リテラル に一致する任意の値に置き換えられます <prompt>
。リージョン名 --region-name
-n
必須: モデル AWS リージョン がデプロイされる 。 レスポンスパス --response-path
-p
必須: エンドポイントのJSONレスポンスから言語モデルの出力を抽出するために使用されるJSONPath文字列。 追加のモデルパラメータ --model-parameters
-m
オプション : モデルに渡される追加のパラメータを指定するJSON値。受け入れられた値は、ディクショナリに解析され、解凍され、プロバイダークラスに直接渡されます。これは、エンドポイントまたはモデルがカスタムパラメータを必要とする場合に便利です。例えば、エンドユーザーライセンス契約 (EULA) を承諾する必要がある Llama 2 モデルでは、 を使用してエンドポイントにEULA承諾を渡すことができます -m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}}
。または、-m
パラメータを使用して、モデルが生成したレスポンスのトークンの最大数を設定するなど、追加のモデルパラメータを渡すこともできます。例えば、AI21Labs Jurassic モデルを使用する場合:-m {"model_kwargs":{"maxTokens":256}}
。出力形式 --format
-f
オプション: 出力のレンダリングに使用されるIPythonディスプレイ。呼び出されたモデルが指定された形式をサポートしている場合 [code|html|image|json|markdown|math|md|text]
、次のいずれかの値を指定できます。次のコマンドは、 によってホストされる Llama2-7b
モデルを呼び出します SageMaker。 %%ai sagemaker-endpoint:jumpstart-dft-meta-textgeneration-llama-2-7b -q {"inputs":"<prompt>","parameters":{"max_new_tokens":64,"top_p":0.9,"temperature":0.6,"return_full_text":false}} -n us-east-2 -p [0].generation -m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}} -f text Translate English to French: sea otter => loutre de mer peppermint => menthe poivrée plush girafe => girafe peluche cheese =>
次の例では、 によってホストされる Flan-t5-smallモデルを呼び出します SageMaker。
%%ai sagemaker-endpoint:hf-text2text-flan-t5-small --request-schema={"inputs":"<prompt>","parameters":{"num_return_sequences":4}} --region-name=us-west-2 --response-path=[0]["generated_text"] -f text What is the atomic number of Hydrogen?
-
Amazon Bedrock にデプロイされたモデル
bedrock:
を呼び出すには、 JumpStart または Amazon Bedrock でホストされているモデルを呼び出すためのパラメータのリストで定義されている任意のオプションパラメータを指定して、 文字列をmodel-name
%%ai
マジックコマンドに渡してから、次の行にプロンプトを追加します。次の例では、Amazon Bedrock がホストする AI21 Labs Jurassic-2 モデルを呼び出します。
%%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":256}} -f code Write a function in python implementing a bubbble sort.
-
-
サードパーティープロバイダーがホストするモデルの場合
サードパーティープロバイダーがホストするモデルを呼び出すには、文字列をオプションの で
%%ai
マジックコマンド
に渡してからOutput format、次の行にプロンプトを追加します。ID を含む各プロバイダーの詳細は、モデルプロバイダーの Jupyter AI リストprovider-id
:model-name
で確認できます。 次のコマンドは、Anthropic Claude モデルに、黒い境界線を持つ白の四角形の画像を含むHTMLファイルを出力するように要求します。
%%ai anthropic:claude-v1.2 -f html Create a square using SVG with a black border and white fill.