モデルカスタマイズのコードサンプル - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

モデルカスタマイズのコードサンプル

次のコードサンプルは、基本的なデータセットの準備、アクセス許可の設定、カスタムモデルの作成、出力ファイルの表示、モデルのスループットの購入、モデルの推論の実行の方法を示しています。これらのコードスニペットは、特定のユースケースに合わせて変更できます。

  1. トレーニングデータセットを準備します。

    1. 次の 1 行を含むトレーニングデータセットファイルを作成し、名前を付けます。train.jsonl.

      {"prompt": "what is AWS", "completion": "it's Amazon Web Services"}
    2. トレーニングデータ用に S3 バケットを作成し、出力データ用に別のバケットを作成します (名前は一意である必要があります)。

    3. アップロード train.jsonl をトレーニングデータバケットに入力します。

  2. トレーニングにアクセスするためのポリシーを作成し、Amazon Bedrock の信頼関係を持つ IAMロールにアタッチします。選択した方法に対応するタブを選択し、ステップに従います。

    Console
    1. S3 ポリシーを作成します。

      1. https://console.aws.amazon.com/iam のIAMコンソールに移動し、左側のナビゲーションペインからポリシーを選択します。

      2. ポリシーの作成 JSONを選択し、ポリシーエディタ を開きます。

      3. 次のポリシーを貼り付け、${training-bucket} また、${output-bucket} バケット名を指定し、次へ を選択します。

        { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }
      4. ポリシーに名前を付ける MyFineTuningDataAccess ポリシーの作成 を選択します。

    2. IAM ロールを作成し、ポリシーをアタッチします。

      1. 左側のナビゲーションペインから、ロール を選択し、ロールの作成 を選択します。

      2. カスタム信頼ポリシー を選択し、次のポリシーを貼り付け、次へ を選択します。

        { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
      3. の検索 MyFineTuningDataAccess 作成した ポリシーでチェックボックスをオンにし、次へ を選択します。

      4. ロールに名前を付ける MyCustomizationRole を選択し、Create role.

    CLI
    1. という名前のファイルを作成する BedrockTrust.json に次のポリシーを貼り付けます。

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
    2. という名前の別のファイルを作成する MyFineTuningDataAccess.json 次のポリシーを貼り付け、${training-bucket} また、${output-bucket} バケット名を入力します。

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }
    3. ターミナルで、作成したポリシーを含むフォルダに移動します。

    4. という名前のIAMロールを作成するCreateRoleリクエストを行う MyCustomizationRole と をアタッチする BedrockTrust.json 作成した信頼ポリシー。

      aws iam create-role \ --role-name MyCustomizationRole \ --assume-role-policy-document file://BedrockTrust.json
    5. を使用して S3 データアクセスポリシーを作成するCreatePolicyリクエストを行う MyFineTuningDataAccess.json 作成した ファイル。レスポンスは、ポリシーArnの を返します。

      aws iam create-policy \ --policy-name MyFineTuningDataAccess \ --policy-document file://myFineTuningDataAccess.json
    6. S3 データアクセスポリシーをロールにアタッチするAttachRolePolicyリクエストを行い、 を前のステップからのレスポンスpolicy-arnARNの に置き換えます。

      aws iam attach-role-policy \ --role-name MyCustomizationRole \ --policy-arn ${policy-arn}
    Python
    1. 次のコードを実行して、 という名前のIAMロールを作成するCreateRoleリクエストを行います。MyCustomizationRole および は、 という S3 データアクセスポリシーを作成するCreatePolicyリクエストを行います。MyFineTuningDataAccess。 S3 データアクセスポリシーの場合は、${training-bucket} また、${output-bucket} S3 バケット名を入力します。

      import boto3 import json iam = boto3.client("iam") iam.create_role( RoleName="MyCustomizationRole", AssumeRolePolicyDocument=json.dumps({ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }) ) iam.create_policy( PolicyName="MyFineTuningDataAccess", PolicyDocument=json.dumps({ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }) )
    2. Arn レスポンスで が返されます。次のコードスニペットを実行してAttachRolePolicyリクエストを行い、${policy-arn} を返した でArn

      iam.attach_role_policy( RoleName="MyCustomizationRole", PolicyArn="${policy-arn}" )
  3. 言語を選択すると、モデルカスタマイズAPIオペレーションを呼び出すコードサンプルが表示されます。

CLI

まず、 という名前のテキストファイルを作成します。FineTuningData.json。 以下からJSONコードをテキストファイルにコピーし、${training-bucket} また、${output-bucket} S3 バケット名を入力します。

{ "trainingDataConfig": { "s3Uri": "s3://${training-bucket}/train.jsonl" }, "outputDataConfig": { "s3Uri": "s3://${output-bucket}" } }

モデルカスタマイズジョブを送信するには、 を含むフォルダに移動します。FineTuningData.json ターミナルで コマンドラインで次のコマンドを実行し、${your-customization-role-arn} 設定したモデルカスタマイズロールを使用します。

aws bedrock create-model-customization-job \ --customization-type FINE_TUNING \ --base-model-identifier arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-text-express-v1 \ --role-arn ${your-customization-role-arn} \ --job-name MyFineTuningJob \ --custom-model-name MyCustomModel \ --hyper-parameters epochCount=1,batchSize=1,learningRate=.0005,learningRateWarmupSteps=0 \ --cli-input-json file://FineTuningData.json

レスポンスは を返します。jobArn。 ジョブが完了するまでしばらく待ちます。ステータスは、次のコマンドで確認できます。

aws bedrock get-model-customization-job \ --job-identifier "jobArn"

status が の場合COMPLETE、レスポンスtrainingMetricsに が表示されます。アーティファクトは、次のコマンドを実行して現在のフォルダにダウンロードできます。aet.et-bucket 出力バケット名と jobId カスタマイズジョブの ID ( の最後のスラッシュの後のシーケンスjobArn) を含む 。

aws s3 cp s3://${output-bucket}/model-customization-job-jobId . --recursive

次のコマンドを使用して、カスタムモデルのコミットなしプロビジョンドスループットを購入します。

注記

この購入には時間単位で課金されます。コンソールを使用して、さまざまなオプションの料金見積もりを表示します。

aws bedrock create-provisioned-model-throughput \ --model-id MyCustomModel \ --provisioned-model-name MyProvisionedCustomModel \ --model-units 1

レスポンスは を返しますprovisionedModelArn。プロビジョンドスループットの作成に少し時間がかかります。ステータスを確認するには、次のコマンドprovisioned-model-idでARNプロビジョニングされたモデルの名前またはを として指定します。

aws bedrock get-provisioned-model-throughput \ --provisioned-model-id ${provisioned-model-arn}

status が の場合InService、次のコマンドを使用してカスタムモデルで推論を実行できます。プロビジョニングされたモデルの ARNを として指定する必要がありますmodel-id。出力は という名前のファイルに書き込まれます。output.txt 現在のフォルダにある 。

aws bedrock-runtime invoke-model \ --model-id ${provisioned-model-arn} \ --body '{"inputText": "What is AWS?", "textGenerationConfig": {"temperature": 0.5}}' \ --cli-binary-format raw-in-base64-out \ output.txt
Python

次のコードスニペットを実行して、微調整ジョブを送信します。置換 ${your-customization-role-arn} を ARNの で使用 MyCustomizationRole 設定して置き換える ${training-bucket} また、${output-bucket} S3 バケット名を入力します。

import boto3 bedrock = boto3.client(service_name='bedrock') # Set parameters customizationType = "FINE_TUNING" baseModelIdentifier = "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-text-express-v1" roleArn = "${your-customization-role-arn}" jobName = "MyFineTuningJob" customModelName = "MyCustomModel" hyperParameters = { "epochCount": "1", "batchSize": "1", "learningRate": ".0005", "learningRateWarmupSteps": "0" } trainingDataConfig = {"s3Uri": "s3://${training-bucket}/myInputData/train.jsonl"} outputDataConfig = {"s3Uri": "s3://${output-bucket}/myOutputData"} # Create job response_ft = bedrock.create_model_customization_job( jobName=jobName, customModelName=customModelName, roleArn=roleArn, baseModelIdentifier=baseModelIdentifier, hyperParameters=hyperParameters, trainingDataConfig=trainingDataConfig, outputDataConfig=outputDataConfig ) jobArn = response_ft.get('jobArn')

レスポンスは を返します。jobArn。 ジョブが完了するまでしばらく待ちます。ステータスは、次のコマンドで確認できます。

bedrock.get_model_customization_job(jobIdentifier=jobArn).get('status')

status が の場合COMPLETEGetModelCustomizationJobレスポンスtrainingMetricsに が表示されます。「オブジェクトのダウンロード」の手順に従って、メトリクスをダウンロードすることもできます。

次のコマンドを使用して、カスタムモデルのコミットなしプロビジョンドスループットを購入します。

response_pt = bedrock.create_provisioned_model_throughput( modelId="MyCustomModel", provisionedModelName="MyProvisionedCustomModel", modelUnits="1" ) provisionedModelArn = response_pt.get('provisionedModelArn')

レスポンスは を返しますprovisionedModelArn。プロビジョンドスループットの作成に少し時間がかかります。ステータスを確認するには、次のコマンドprovisionedModelIdでARNプロビジョニングされたモデルの名前またはを として指定します。

bedrock.get_provisioned_model_throughput(provisionedModelId=provisionedModelArn)

status が の場合InService、次のコマンドを使用してカスタムモデルで推論を実行できます。プロビジョニングされたモデルの ARNを として指定する必要がありますmodelId

import json import logging import boto3 from botocore.exceptions import ClientError class ImageError(Exception): "Custom exception for errors returned by the model" def __init__(self, message): self.message = message logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_text(model_id, body): """ Generate text using your provisioned custom model. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (json): The response from the model. """ logger.info( "Generating text with your provisioned custom model %s", model_id) brt = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = brt.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get("body").read()) finish_reason = response_body.get("error") if finish_reason is not None: raise ImageError(f"Text generation error. Error is {finish_reason}") logger.info( "Successfully generated text with provisioned custom model %s", model_id) return response_body def main(): """ Entrypoint for example. """ try: logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = provisionedModelArn body = json.dumps({ "inputText": "what is AWS?" }) response_body = generate_text(model_id, body) print(f"Input token count: {response_body['inputTextTokenCount']}") for result in response_body['results']: print(f"Token count: {result['tokenCount']}") print(f"Output text: {result['outputText']}") print(f"Completion reason: {result['completionReason']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) except ImageError as err: logger.error(err.message) print(err.message) else: print( f"Finished generating text with your provisioned custom model {model_id}.") if __name__ == "__main__": main()