Cookie の設定を選択する

当社は、当社のサイトおよびサービスを提供するために必要な必須 Cookie および類似のツールを使用しています。当社は、パフォーマンス Cookie を使用して匿名の統計情報を収集することで、お客様が当社のサイトをどのように利用しているかを把握し、改善に役立てています。必須 Cookie は無効化できませんが、[カスタマイズ] または [拒否] をクリックしてパフォーマンス Cookie を拒否することはできます。

お客様が同意した場合、AWS および承認された第三者は、Cookie を使用して便利なサイト機能を提供したり、お客様の選択を記憶したり、関連する広告を含む関連コンテンツを表示したりします。すべての必須ではない Cookie を受け入れるか拒否するには、[受け入れる] または [拒否] をクリックしてください。より詳細な選択を行うには、[カスタマイズ] をクリックしてください。

Amazon SageMaker AI ノートブックを使用して Amazon Bedrock API リクエストの例を実行する

フォーカスモード
Amazon SageMaker AI ノートブックを使用して Amazon Bedrock API リクエストの例を実行する - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

このセクションでは、Amazon SageMaker AI ノートブックを使用して Amazon Bedrock で一般的なオペレーションを試し、Amazon Bedrock ロールのアクセス許可が正しく設定されていることをテストする方法について説明します。次の例を実行する前に、次の前提条件が満たされていることを確認してください。

前提条件

  • Amazon Bedrock に必要なアクセス許可を持つロールにアクセスするための AWS アカウント と アクセス許可があります。そうでない場合は、「が既にある AWS アカウント」の手順を実行します。

  • Amazon Titan Text G1 - Express モデルへのアクセスをリクエスト済みである。そうでない場合は、「Amazon Bedrock 基盤モデルへのアクセスをリクエストする」の手順を実行します。

  • 次の手順を実行して、SageMaker AI の IAM アクセス許可を設定し、ノートブックを作成します。

    1. コンソールCLI、または API を使用して「が既にある AWS アカウント」で設定した Amazon Bedrock ロールの信頼ポリシーを変更します。次の信頼ポリシーをロールにアタッチして、Amazon Bedrock と SageMaker AI サービスの両方が Amazon Bedrock ロールを引き受けることを許可します。

      { "Version": "2012-10-17", "Statement": [ { "Sid": "BedrockTrust", "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" }, { "Sid": "SagemakerTrust", "Effect": "Allow", "Principal": { "Service": "sagemaker.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
    2. 信頼ポリシーを変更した Amazon Bedrock ロールにサインインします。

    3. チュートリアルのAmazon SageMaker AI ノートブックインスタンスを作成する」の手順に従って、SageMaker AI ノートブックインスタンスを作成するために作成した Amazon Bedrock ロールの ARN を指定します。

    4. ノートブックインスタンスの [ステータス][InService] の場合、インスタンスを選択し、[JupyterLab を開く] を選択します。

SageMaker AI ノートブックを開いたら、次の例を試すことができます。

Amazon Bedrock が提供する基盤モデルを一覧表示する

次の例では、Amazon Bedrock クライアントを使用して ListFoundationModels オペレーションを実行します。ListFoundationModels は、ユーザーのリージョンの Amazon Bedrock で利用可能な基盤モデル (FM) を一覧表示します。次の SDK for Python スクリプトを実行して Amazon Bedrock クライアントを作成し、ListFoundationModels オペレーションをテストします。

""" Lists the available Amazon Bedrock models in an AWS Region. """ import logging import json import boto3 from botocore.exceptions import ClientError logging.basicConfig(level=logging.INFO) logger = logging.getLogger(__name__) def list_foundation_models(bedrock_client): """ Gets a list of available Amazon Bedrock foundation models. :return: The list of available bedrock foundation models. """ try: response = bedrock_client.list_foundation_models() models = response["modelSummaries"] logger.info("Got %s foundation models.", len(models)) return models except ClientError: logger.error("Couldn't list foundation models.") raise def main(): """Entry point for the example. Change aws_region to the AWS Region that you want to use.""" aws_region = "us-east-1" bedrock_client = boto3.client(service_name="bedrock", region_name=aws_region) fm_models = list_foundation_models(bedrock_client) for model in fm_models: print(f"Model: {model["modelName"]}") print(json.dumps(model, indent=2)) print("---------------------------\n") logger.info("Done.") if __name__ == "__main__": main()

スクリプトが成功すると、レスポンスは Amazon Bedrock で使用できる基盤モデルのリストを返します。

テキストプロンプトをモデルに送信し、レスポンスを生成する

次の例では、Amazon Bedrock クライアントを使用して Converse オペレーションを実行します。Converse では、プロンプトを送信してモデルレスポンスを生成できます。次の SDK for Python スクリプトを実行して Amazon Bedrock のランタイムクライアントを作成し、Converse オペレーションをテストします。

# Use the Conversation API to send a text message to Amazon Titan Text G1 - Express. import boto3 from botocore.exceptions import ClientError # Create an Amazon Bedrock Runtime client. brt = boto3.client("bedrock-runtime") # Set the model ID, e.g., Amazon Titan Text G1 - Express. model_id = "amazon.titan-text-express-v1" # Start a conversation with the user message. user_message = "Describe the purpose of a 'hello world' program in one line." conversation = [ { "role": "user", "content": [{"text": user_message}], } ] try: # Send the message to the model, using a basic inference configuration. response = brt.converse( modelId=model_id, messages=conversation, inferenceConfig={"maxTokens": 512, "temperature": 0.5, "topP": 0.9}, ) # Extract and print the response text. response_text = response["output"]["message"]["content"][0]["text"] print(response_text) except (ClientError, Exception) as e: print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}") exit(1)

コマンドが成功すると、レスポンスは、プロンプトに応答してモデルによって生成されたテキストを返します。

プライバシーサイト規約Cookie の設定
© 2025, Amazon Web Services, Inc. or its affiliates.All rights reserved.