選取您的 Cookie 偏好設定

我們使用提供自身網站和服務所需的基本 Cookie 和類似工具。我們使用效能 Cookie 收集匿名統計資料,以便了解客戶如何使用我們的網站並進行改進。基本 Cookie 無法停用,但可以按一下「自訂」或「拒絕」以拒絕效能 Cookie。

如果您同意,AWS 與經核准的第三方也會使用 Cookie 提供實用的網站功能、記住您的偏好設定,並顯示相關內容,包括相關廣告。若要接受或拒絕所有非必要 Cookie,請按一下「接受」或「拒絕」。若要進行更詳細的選擇,請按一下「自訂」。

佈建輸送量的程式碼範例

焦點模式
佈建輸送量的程式碼範例 - Amazon Bedrock

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

下列程式碼範例示範如何使用 和 AWS CLI Python SDK 建立佈建輸送量,以及如何管理和叫用它。您可以從基礎模型或您已自訂的模型建立佈建輸送量。開始之前,請執行下列先決條件:

先決條件

下列範例使用Amazon Nova Lite模型,其模型 ID 為 amazon.nova-lite-v1:0:24k。如果您還沒有,Amazon Nova Lite請依照 中的步驟請求存取 新增或移除對 Amazon Bedrock 基礎模型的存取權

如果您想要為不同的基礎模型或自訂模型購買佈建輸送量,您必須執行下列動作:

  1. 透過執行下列其中一項,尋找模型的 ID (適用於基礎模型)、名稱 (適用於自訂模型) 或 ARN (適用於任一):

    • 如果您要購買基礎模型的佈建輸送量,請尋找支援以下列其中一種方式佈建之模型的 ID 或 Amazon Resource Name (ARN):

    • 如果您要購買自訂模型的佈建輸送量,請尋找您以下列其中一種方式自訂模型的名稱或 Amazon Resource Name (ARN):

      • 在 Amazon Bedrock 主控台中,從左側導覽窗格中選擇自訂模型。在模型清單中尋找自訂模型的名稱,或選取它,然後在模型詳細資訊中尋找模型 ARN

      • 傳送 ListCustomModels 請求,並在回應中尋找自訂模型的 modelNamemodelArn值。

  2. 在下列範例中修改 InvokeModel 請求body的 ,以在 中尋找符合模型內文的格式基礎模型的推論請求參數和回應欄位

選擇您偏好方法的索引標籤,然後遵循下列步驟:

AWS CLI
  1. 透過在終端機中執行下列命令,傳送 CreateProvisionedModelThroughput 請求以建立稱為 MyPT 的無遞交佈建輸送量:

    aws bedrock create-provisioned-model-throughput \ --model-units 1 \ --provisioned-model-name MyPT \ --model-id amazon.nova-lite-v1:0:24k
  2. 回應會傳回 provisioned-model-arn。等待建立完成。若要檢查其狀態,請執行下列命令provisioned-model-id,傳送 GetProvisionedModelThroughput 請求,並提供佈建模型的名稱或 ARN 做為 :

    aws bedrock get-provisioned-model-throughput \ --provisioned-model-id ${provisioned-model-arn}
  3. 傳送 InvokeModel 請求,以您的佈建模型執行推論。提供CreateProvisionedModelThroughput回應中傳回之佈建模型的 ARN,做為 model-id。輸出會寫入目前資料夾中名為 output.txt 的檔案。

    aws bedrock-runtime invoke-model \ --model-id ${provisioned-model-arn} \ --body '{ "messages": [{ "role": "user", "content": [{ "text": "Hello" }] }], "inferenceConfig": { "temperature":0.7 } }' \ --cli-binary-format raw-in-base64-out \ output.txt
  4. 使用下列命令傳送 DeleteProvisionedModelThroughput 請求來刪除佈建輸送量。您不再需要支付佈建輸送量的費用。

    aws bedrock delete-provisioned-model-throughput --provisioned-model-id MyPT
Python (Boto)

下列程式碼片段會逐步引導您建立佈建輸送量以取得相關資訊,並叫用佈建輸送量。

  1. 若要建立名為 MyPT 的無遞交佈建輸送量,並將佈建輸送量的 ARN 指派給名為 provisioned_model_arn 的變數,請傳送下列 CreateProvisionedModelThroughput 請求:

    import boto3 provisioned_model_name = 'MyPT' bedrock = boto3.client(service_name='bedrock') response = bedrock.create_provisioned_model_throughput( modelUnits=1, provisionedModelName=provisioned_model_name, modelId='amazon.nova-lite-v1:0:24k' ) provisioned_model_arn = response['provisionedModelArn']
  2. 等待建立完成。您可以使用下列程式碼片段來檢查其狀態。您可以提供佈建輸送量的名稱,或從 CreateProvisionedModelThroughput 回應傳回的 ARN 做為 provisionedModelId

    bedrock.get_provisioned_model_throughput(provisionedModelId=provisioned_model_name)
  3. 使用下列命令並使用佈建模型的 ARN 做為 ,以更新的佈建模型執行推論modelId

    import json import logging import boto3 from botocore.exceptions import ClientError class ImageError(Exception): "Custom exception for errors returned by the model" def __init__(self, message): self.message = message logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_text(model_id, body): """ Generate text using your provisioned custom model. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (json): The response from the model. """ logger.info( "Generating text with your provisioned custom model %s", model_id) brt = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = brt.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get("body").read()) finish_reason = response_body.get("error") if finish_reason is not None: raise ImageError(f"Text generation error. Error is {finish_reason}") logger.info( "Successfully generated text with provisioned custom model %s", model_id) return response_body def main(): """ Entrypoint for example. """ try: logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = provisioned-model-arn body = json.dumps({ "inputText": "what is AWS?" }) response_body = generate_text(model_id, body) print(f"Input token count: {response_body['inputTextTokenCount']}") for result in response_body['results']: print(f"Token count: {result['tokenCount']}") print(f"Output text: {result['outputText']}") print(f"Completion reason: {result['completionReason']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) except ImageError as err: logger.error(err.message) print(err.message) else: print( f"Finished generating text with your provisioned custom model {model_id}.") if __name__ == "__main__": main()
  4. 使用下列程式碼片段刪除佈建的輸送量。您不再需要支付佈建輸送量的費用。

    bedrock.delete_provisioned_model_throughput(provisionedModelId=provisioned_model_name)
  1. 透過在終端機中執行下列命令,傳送 CreateProvisionedModelThroughput 請求以建立稱為 MyPT 的無遞交佈建輸送量:

    aws bedrock create-provisioned-model-throughput \ --model-units 1 \ --provisioned-model-name MyPT \ --model-id amazon.nova-lite-v1:0:24k
  2. 回應會傳回 provisioned-model-arn。等待建立完成。若要檢查其狀態,請執行下列命令provisioned-model-id,傳送 GetProvisionedModelThroughput 請求,並提供佈建模型的名稱或 ARN 做為 :

    aws bedrock get-provisioned-model-throughput \ --provisioned-model-id ${provisioned-model-arn}
  3. 傳送 InvokeModel 請求,以您的佈建模型執行推論。提供CreateProvisionedModelThroughput回應中傳回之佈建模型的 ARN,做為 model-id。輸出會寫入目前資料夾中名為 output.txt 的檔案。

    aws bedrock-runtime invoke-model \ --model-id ${provisioned-model-arn} \ --body '{ "messages": [{ "role": "user", "content": [{ "text": "Hello" }] }], "inferenceConfig": { "temperature":0.7 } }' \ --cli-binary-format raw-in-base64-out \ output.txt
  4. 使用下列命令傳送 DeleteProvisionedModelThroughput 請求來刪除佈建輸送量。您不再需要支付佈建輸送量的費用。

    aws bedrock delete-provisioned-model-throughput --provisioned-model-id MyPT
隱私權網站條款Cookie 偏好設定
© 2025, Amazon Web Services, Inc.或其附屬公司。保留所有權利。