Codebeispiele für die Modellanpassung - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Codebeispiele für die Modellanpassung

Die folgenden Codebeispiele zeigen, wie Sie einen Basisdatensatz vorbereiten, Berechtigungen einrichten, ein benutzerdefiniertes Modell erstellen, die Ausgabedateien anzeigen, Durchsatz für das Modell erwerben und Inferenzen für das Modell ausführen. Sie können diese Codefragmente an Ihren speziellen Anwendungsfall anpassen.

  1. Bereiten Sie den Trainingsdatensatz vor.

    1. Erstellen Sie eine Trainingsdatensatz-Datei, die die folgende Zeile enthält, und benennen Sie sietrain.jsonl.

      {"prompt": "what is AWS", "completion": "it's Amazon Web Services"}
    2. Erstellen Sie einen S3-Bucket für Ihre Trainingsdaten und einen weiteren für Ihre Ausgabedaten (die Namen müssen eindeutig sein).

    3. Laden Sie es train.jsonl in den Trainingsdaten-Bucket hoch.

  2. Erstellen Sie eine Richtlinie für den Zugriff auf Ihre Schulung und fügen Sie sie einer IAM Rolle hinzu, für die eine Vertrauensbeziehung zu Amazon Bedrock besteht. Wählen Sie die Registerkarte für Ihre bevorzugte Methode und folgen Sie dann den Schritten:

    Console
    1. Erstellen Sie die S3-Richtlinie.

      1. Navigieren Sie unter https://console.aws.amazon.com/iam zur IAM Konsole und wählen Sie im linken Navigationsbereich Richtlinien aus.

      2. Wählen Sie Richtlinie erstellen aus und öffnen Sie dann JSONden Richtlinien-Editor.

      3. Fügen Sie die folgende Richtlinie ein, ersetzen Sie ${training-bucket} und ${output-bucket} durch Ihre Bucket-Namen, und wählen Sie dann Weiter aus.

        { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }
      4. Geben Sie der Richtlinie einen Namen MyFineTuningDataAccess und wählen Sie Richtlinie erstellen aus.

    2. Erstellen Sie eine IAM Rolle und hängen Sie die Richtlinie an.

      1. Wählen Sie im linken Navigationsbereich Rollen und dann Rolle erstellen aus.

      2. Wählen Sie Benutzerdefinierte Vertrauensrichtlinie aus, fügen Sie die folgende Richtlinie ein und wählen Sie Weiter aus.

        { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
      3. Suchen Sie nach der MyFineTuningDataAccess Richtlinie, die Sie erstellt haben, aktivieren Sie das Kontrollkästchen und klicken Sie auf Weiter.

      4. Geben Sie der Rolle einen Namen MyCustomizationRole und wählen SieCreate role.

    CLI
    1. Erstellen Sie eine Datei mit dem Namen BedrockTrust.json und fügen Sie die folgende Richtlinie ein.

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
    2. Erstellen Sie eine weitere Datei mit dem Namen MyFineTuningDataAccess.json und fügen Sie die folgende Richtlinie ein, ${output-bucket} wobei Sie Ihre Bucket-Namen durch ${training-bucket} und ersetzen.

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }
    3. Navigieren Sie in einem Terminal zu dem Ordner, der die von Ihnen erstellten Richtlinien enthält.

    4. Stellen Sie eine CreateRoleAnfrage zur Erstellung einer IAM Rolle mit dem Namen MyCustomizationRole und fügen Sie die von Ihnen erstellte BedrockTrust.json Vertrauensrichtlinie hinzu.

      aws iam create-role \ --role-name MyCustomizationRole \ --assume-role-policy-document file://BedrockTrust.json
    5. Stellen Sie eine CreatePolicyAnfrage zur Erstellung der S3-Datenzugriffsrichtlinie mit der von Ihnen erstellten MyFineTuningDataAccess.json Datei. Die Antwort gibt ein Arn für die Richtlinie zurück.

      aws iam create-policy \ --policy-name MyFineTuningDataAccess \ --policy-document file://myFineTuningDataAccess.json
    6. Stellen Sie eine AttachRolePolicyAnfrage, um die S3-Datenzugriffsrichtlinie an Ihre Rolle anzuhängen, und ersetzen Sie das durch das ARN in der Antwort aus dem vorherigen Schritt: policy-arn

      aws iam attach-role-policy \ --role-name MyCustomizationRole \ --policy-arn ${policy-arn}
    Python
    1. Führen Sie den folgenden Code aus, um eine CreateRoleAnfrage zur Erstellung einer aufgerufenen IAM Rolle MyCustomizationRole und eine CreatePolicyAnfrage zur Erstellung einer S3-Datenzugriffsrichtlinie namens zu stellenMyFineTuningDataAccess. Ersetzen Sie für die S3-Datenzugriffsrichtlinie ${training-bucket} und ${output-bucket} durch Ihre S3-Bucket-Namen.

      import boto3 import json iam = boto3.client("iam") iam.create_role( RoleName="MyCustomizationRole", AssumeRolePolicyDocument=json.dumps({ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }) ) iam.create_policy( PolicyName="MyFineTuningDataAccess", PolicyDocument=json.dumps({ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }) )
    2. In Arn der Antwort wird ein zurückgegeben. Führen Sie den folgenden Codeausschnitt aus, um eine AttachRolePolicyAnfrage zu stellen, und ${policy-arn} ersetzen Sie ihn durch den zurückgegebenen Code. Arn

      iam.attach_role_policy( RoleName="MyCustomizationRole", PolicyArn="${policy-arn}" )
  3. Wählen Sie eine Sprache aus, um Codebeispiele zum Aufrufen der API Modellanpassungsoperationen anzuzeigen.

CLI

Erstellen Sie zunächst eine Textdatei mit dem NamenFineTuningData.json. Kopieren Sie den JSON Code von unten in die Textdatei ${training-bucket} und ${output-bucket} ersetzen Sie ihn durch Ihre S3-Bucket-Namen.

{ "trainingDataConfig": { "s3Uri": "s3://${training-bucket}/train.jsonl" }, "outputDataConfig": { "s3Uri": "s3://${output-bucket}" } }

Um einen Auftrag zur Modellanpassung einzureichen, navigieren Sie zu dem Ordner, der sich FineTuningData.json in einem Terminal befindet, und führen Sie den folgenden Befehl in der Befehlszeile aus. ${your-customization-role-arn} Ersetzen Sie ihn durch die Rolle für die Modellanpassung, die Sie eingerichtet haben.

aws bedrock create-model-customization-job \ --customization-type FINE_TUNING \ --base-model-identifier arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-text-express-v1 \ --role-arn ${your-customization-role-arn} \ --job-name MyFineTuningJob \ --custom-model-name MyCustomModel \ --hyper-parameters epochCount=1,batchSize=1,learningRate=.0005,learningRateWarmupSteps=0 \ --cli-input-json file://FineTuningData.json

Die Antwort gibt a zurückjobArn. Warten Sie, bis der Job abgeschlossen ist. Sie können seinen Status mit dem folgenden Befehl überprüfen.

aws bedrock get-model-customization-job \ --job-identifier "jobArn"

Wenn dies der status Fall istCOMPLETE, können Sie das trainingMetrics in der Antwort sehen. Sie können die Artefakte in den aktuellen Ordner herunterladen, indem Sie den folgenden Befehl ausführen und ihn aet.et-bucket durch den Namen Ihres Ausgabe-Buckets und jobId durch die ID des Anpassungsjobs ersetzen (die Reihenfolge nach dem letzten Schrägstrich imjobArn).

aws s3 cp s3://${output-bucket}/model-customization-job-jobId . --recursive

Erwerben Sie mit dem folgenden Befehl einen unverbindlichen Provisioned Throughput für Ihr benutzerdefiniertes Modell.

Anmerkung

Dieser Kauf wird Ihnen stündlich in Rechnung gestellt. Verwenden Sie die Konsole, um Preisschätzungen für verschiedene Optionen einzusehen.

aws bedrock create-provisioned-model-throughput \ --model-id MyCustomModel \ --provisioned-model-name MyProvisionedCustomModel \ --model-units 1

Die Antwort gibt a zurückprovisionedModelArn. Warten Sie einige Zeit, bis der bereitgestellte Durchsatz erstellt wurde. Um den Status zu überprüfen, geben Sie den Namen oder den Namen ARN des bereitgestellten Modells wie provisioned-model-id im folgenden Befehl ein.

aws bedrock get-provisioned-model-throughput \ --provisioned-model-id ${provisioned-model-arn}

Wenn dies der status Fall istInService, können Sie mit dem folgenden Befehl eine Inferenz für Ihr benutzerdefiniertes Modell ausführen. Sie müssen das ARN des bereitgestellten Modells als angeben. model-id Die Ausgabe wird in eine Datei mit dem Namen output.txt in Ihrem aktuellen Ordner geschrieben.

aws bedrock-runtime invoke-model \ --model-id ${provisioned-model-arn} \ --body '{"inputText": "What is AWS?", "textGenerationConfig": {"temperature": 0.5}}' \ --cli-binary-format raw-in-base64-out \ output.txt
Python

Führen Sie den folgenden Codeausschnitt aus, um einen Feinabstimmungsauftrag einzureichen. ${your-customization-role-arn}Ersetzen Sie es durch die Namen ARN der BucketsMyCustomizationRole, die Sie eingerichtet und ersetzt haben, ${training-bucket} und ${output-bucket} durch Ihre S3-Bucket-Namen.

import boto3 bedrock = boto3.client(service_name='bedrock') # Set parameters customizationType = "FINE_TUNING" baseModelIdentifier = "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-text-express-v1" roleArn = "${your-customization-role-arn}" jobName = "MyFineTuningJob" customModelName = "MyCustomModel" hyperParameters = { "epochCount": "1", "batchSize": "1", "learningRate": ".0005", "learningRateWarmupSteps": "0" } trainingDataConfig = {"s3Uri": "s3://${training-bucket}/myInputData/train.jsonl"} outputDataConfig = {"s3Uri": "s3://${output-bucket}/myOutputData"} # Create job response_ft = bedrock.create_model_customization_job( jobName=jobName, customModelName=customModelName, roleArn=roleArn, baseModelIdentifier=baseModelIdentifier, hyperParameters=hyperParameters, trainingDataConfig=trainingDataConfig, outputDataConfig=outputDataConfig ) jobArn = response_ft.get('jobArn')

Die Antwort gibt a zurückjobArn. Warten Sie, bis der Job abgeschlossen ist. Sie können seinen Status mit dem folgenden Befehl überprüfen.

bedrock.get_model_customization_job(jobIdentifier=jobArn).get('status')

Wenn dies der status Fall istCOMPLETE, können Sie das trainingMetrics in der GetModelCustomizationJobAntwort sehen. Sie können auch den Schritten unter Objekte herunterladen folgen, um die Metriken herunterzuladen.

Erwerben Sie mit dem folgenden Befehl einen unverbindlichen Provisioned Throughput für Ihr benutzerdefiniertes Modell.

response_pt = bedrock.create_provisioned_model_throughput( modelId="MyCustomModel", provisionedModelName="MyProvisionedCustomModel", modelUnits="1" ) provisionedModelArn = response_pt.get('provisionedModelArn')

Die Antwort gibt a zurück. provisionedModelArn Warten Sie einige Zeit, bis der bereitgestellte Durchsatz erstellt wurde. Um den Status zu überprüfen, geben Sie den Namen oder den Namen ARN des bereitgestellten Modells wie provisionedModelId im folgenden Befehl ein.

bedrock.get_provisioned_model_throughput(provisionedModelId=provisionedModelArn)

Wenn dies der status Fall istInService, können Sie mit dem folgenden Befehl eine Inferenz für Ihr benutzerdefiniertes Modell ausführen. Sie müssen das ARN des bereitgestellten Modells als angeben. modelId

import json import logging import boto3 from botocore.exceptions import ClientError class ImageError(Exception): "Custom exception for errors returned by the model" def __init__(self, message): self.message = message logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_text(model_id, body): """ Generate text using your provisioned custom model. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (json): The response from the model. """ logger.info( "Generating text with your provisioned custom model %s", model_id) brt = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = brt.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get("body").read()) finish_reason = response_body.get("error") if finish_reason is not None: raise ImageError(f"Text generation error. Error is {finish_reason}") logger.info( "Successfully generated text with provisioned custom model %s", model_id) return response_body def main(): """ Entrypoint for example. """ try: logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = provisionedModelArn body = json.dumps({ "inputText": "what is AWS?" }) response_body = generate_text(model_id, body) print(f"Input token count: {response_body['inputTextTokenCount']}") for result in response_body['results']: print(f"Token count: {result['tokenCount']}") print(f"Output text: {result['outputText']}") print(f"Completion reason: {result['completionReason']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) except ImageError as err: logger.error(err.message) print(err.message) else: print( f"Finished generating text with your provisioned custom model {model_id}.") if __name__ == "__main__": main()