Esempi di codice per la personalizzazione del modello - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Esempi di codice per la personalizzazione del modello

I seguenti esempi di codice mostrano come preparare un set di dati di base, impostare le autorizzazioni, creare un modello personalizzato, visualizzare i file di output, acquistare la velocità effettiva per il modello ed eseguire l'inferenza sul modello. Puoi modificare questi frammenti di codice in base al tuo caso d'uso specifico.

  1. Prepara il set di dati di addestramento.

    1. Crea un file del set di dati di addestramento contenente la riga seguente e assegnagli un nome train.jsonl.

      {"prompt": "what is AWS", "completion": "it's Amazon Web Services"}
    2. Crea un bucket S3 per i dati di allenamento e un altro per i dati di output (i nomi devono essere univoci).

    3. Caricamento train.jsonl nel bucket dei dati di allenamento.

  2. Crea una politica per accedere alla tua formazione e associala a un IAM ruolo con una relazione di fiducia con Amazon Bedrock. Seleziona la scheda corrispondente al metodo scelto e segui i passaggi:

    Console
    1. Crea la policy S3.

      1. Vai alla IAM console in https://console.aws.amazon.com/iam e scegli Policies dal riquadro di navigazione a sinistra.

      2. Seleziona Crea policy, quindi scegli JSONdi aprire l'editor delle policy.

      3. Incolla la seguente politica, sostituendola ${training-bucket} e ${output-bucket} con i nomi dei bucket, quindi seleziona Avanti.

        { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }
      4. Assegna un nome alla politica MyFineTuningDataAccess e seleziona Crea politica.

    2. Crea un IAM ruolo e allega la politica.

      1. Dal riquadro di navigazione a sinistra, scegli Ruoli, quindi seleziona Crea ruolo.

      2. Seleziona Politica di fiducia personalizzata, incolla la seguente politica e seleziona Avanti.

        { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
      3. Cerca il MyFineTuningDataAccess politica creata, seleziona la casella di controllo e scegli Avanti.

      4. Assegna un nome al ruolo MyCustomizationRole e seleziona Create role.

    CLI
    1. Crea un file chiamato BedrockTrust.json e incolla la seguente politica al suo interno.

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
    2. Crea un altro file chiamato MyFineTuningDataAccess.json e incolla la seguente politica al suo interno, sostituendola ${training-bucket} e ${output-bucket} con i nomi dei tuoi bucket.

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }
    3. In un terminale, accedi alla cartella contenente le politiche che hai creato.

    4. Fai una CreateRolerichiesta per creare un IAM ruolo chiamato MyCustomizationRole e allega il BedrockTrust.json politica di fiducia che hai creato.

      aws iam create-role \ --role-name MyCustomizationRole \ --assume-role-policy-document file://BedrockTrust.json
    5. Fai una CreatePolicyrichiesta per creare la politica di accesso ai dati di S3 con MyFineTuningDataAccess.json file che hai creato. La risposta restituisce un Arn messaggio per la politica.

      aws iam create-policy \ --policy-name MyFineTuningDataAccess \ --policy-document file://myFineTuningDataAccess.json
    6. Fai una AttachRolePolicyrichiesta per allegare la policy di accesso ai dati di S3 al tuo ruolo, sostituendola policy-arn con la presente ARN nella risposta del passaggio precedente:

      aws iam attach-role-policy \ --role-name MyCustomizationRole \ --policy-arn ${policy-arn}
    Python
    1. Esegui il codice seguente per effettuare una CreateRolerichiesta di creazione di un IAM ruolo chiamato MyCustomizationRole e per fare una CreatePolicyrichiesta per creare una politica di accesso ai dati S3 chiamata MyFineTuningDataAccess. Per la politica di accesso ai dati di S3, sostituisci ${training-bucket} e ${output-bucket} con i nomi dei tuoi bucket S3.

      import boto3 import json iam = boto3.client("iam") iam.create_role( RoleName="MyCustomizationRole", AssumeRolePolicyDocument=json.dumps({ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }) ) iam.create_policy( PolicyName="MyFineTuningDataAccess", PolicyDocument=json.dumps({ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${training-bucket}", "arn:aws:s3:::${training-bucket}/*" ] }, { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::${output-bucket}", "arn:aws:s3:::${output-bucket}/*" ] } ] }) )
    2. Nella risposta Arn viene restituito An. Esegui il seguente frammento di codice per effettuare una AttachRolePolicyrichiesta, sostituendo ${policy-arn} con il restituito. Arn

      iam.attach_role_policy( RoleName="MyCustomizationRole", PolicyArn="${policy-arn}" )
  3. Seleziona una lingua per visualizzare esempi di codice per richiamare le API operazioni di personalizzazione del modello.

CLI

Innanzitutto, crea un file di testo denominato FineTuningData.json. Copia il JSON codice dal basso nel file di testo, sostituendo ${training-bucket} e ${output-bucket} con i nomi dei tuoi bucket S3.

{ "trainingDataConfig": { "s3Uri": "s3://${training-bucket}/train.jsonl" }, "outputDataConfig": { "s3Uri": "s3://${output-bucket}" } }

Per inviare un lavoro di personalizzazione del modello, accedi alla cartella contenente FineTuningData.json in un terminale ed esegui il seguente comando nella riga di comando, sostituendo ${your-customization-role-arn} con il ruolo di personalizzazione del modello che hai impostato.

aws bedrock create-model-customization-job \ --customization-type FINE_TUNING \ --base-model-identifier arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-text-express-v1 \ --role-arn ${your-customization-role-arn} \ --job-name MyFineTuningJob \ --custom-model-name MyCustomModel \ --hyper-parameters epochCount=1,batchSize=1,learningRate=.0005,learningRateWarmupSteps=0 \ --cli-input-json file://FineTuningData.json

La risposta restituisce un jobArn. Attendi del tempo per completare il lavoro. È possibile verificarne lo stato con il seguente comando.

aws bedrock get-model-customization-job \ --job-identifier "jobArn"

Quando lo status èCOMPLETE, puoi vederlo trainingMetrics nella risposta. È possibile scaricare gli artefatti nella cartella corrente eseguendo il seguente comando, sostituendo aet.et-bucket con il nome del bucket di output e jobId con l'ID del lavoro di personalizzazione (la sequenza che segue l'ultima barra del). jobArn

aws s3 cp s3://${output-bucket}/model-customization-job-jobId . --recursive

Acquista un Provisioned Throughput senza impegno per il tuo modello personalizzato con il seguente comando.

Nota

Ti verrà addebitato ogni ora per questo acquisto. Usa la console per visualizzare le stime dei prezzi per diverse opzioni.

aws bedrock create-provisioned-model-throughput \ --model-id MyCustomModel \ --provisioned-model-name MyProvisionedCustomModel \ --model-units 1

La risposta restituisce unprovisionedModelArn. Attendi un certo periodo di tempo per la creazione del Provisioned Throughput. Per verificarne lo stato, fornite il nome o ARN il modello fornito come indicato provisioned-model-id nel comando seguente.

aws bedrock get-provisioned-model-throughput \ --provisioned-model-id ${provisioned-model-arn}

Quando lo status èInService, puoi eseguire l'inferenza con il tuo modello personalizzato con il seguente comando. È necessario fornire ARN il modello fornito come. model-id L'output viene scritto in un file denominato output.txt nella cartella corrente.

aws bedrock-runtime invoke-model \ --model-id ${provisioned-model-arn} \ --body '{"inputText": "What is AWS?", "textGenerationConfig": {"temperature": 0.5}}' \ --cli-binary-format raw-in-base64-out \ output.txt
Python

Esegui il seguente frammento di codice per inviare un lavoro di ottimizzazione. Replace (Sostituisci) ${your-customization-role-arn} con il ARN MyCustomizationRole che hai impostato e sostituito ${training-bucket} e ${output-bucket} con i nomi dei tuoi bucket S3.

import boto3 bedrock = boto3.client(service_name='bedrock') # Set parameters customizationType = "FINE_TUNING" baseModelIdentifier = "arn:aws:bedrock:us-east-1::foundation-model/amazon.titan-text-express-v1" roleArn = "${your-customization-role-arn}" jobName = "MyFineTuningJob" customModelName = "MyCustomModel" hyperParameters = { "epochCount": "1", "batchSize": "1", "learningRate": ".0005", "learningRateWarmupSteps": "0" } trainingDataConfig = {"s3Uri": "s3://${training-bucket}/myInputData/train.jsonl"} outputDataConfig = {"s3Uri": "s3://${output-bucket}/myOutputData"} # Create job response_ft = bedrock.create_model_customization_job( jobName=jobName, customModelName=customModelName, roleArn=roleArn, baseModelIdentifier=baseModelIdentifier, hyperParameters=hyperParameters, trainingDataConfig=trainingDataConfig, outputDataConfig=outputDataConfig ) jobArn = response_ft.get('jobArn')

La risposta restituisce un jobArn. Attendi del tempo per completare il lavoro. È possibile verificarne lo stato con il seguente comando.

bedrock.get_model_customization_job(jobIdentifier=jobArn).get('status')

Quando lo status èCOMPLETE, puoi vederlo trainingMetrics nella GetModelCustomizationJobrisposta. Puoi anche seguire la procedura descritta in Download degli oggetti per scaricare le metriche.

Acquista un Provisioned Throughput senza impegno per il tuo modello personalizzato con il seguente comando.

response_pt = bedrock.create_provisioned_model_throughput( modelId="MyCustomModel", provisionedModelName="MyProvisionedCustomModel", modelUnits="1" ) provisionedModelArn = response_pt.get('provisionedModelArn')

La risposta restituisce un. provisionedModelArn Attendi un certo periodo di tempo per la creazione del Provisioned Throughput. Per verificarne lo stato, fornite il nome o ARN il modello fornito come indicato provisionedModelId nel comando seguente.

bedrock.get_provisioned_model_throughput(provisionedModelId=provisionedModelArn)

Quando lo status èInService, puoi eseguire l'inferenza con il tuo modello personalizzato con il seguente comando. È necessario fornire ARN il modello fornito come. modelId

import json import logging import boto3 from botocore.exceptions import ClientError class ImageError(Exception): "Custom exception for errors returned by the model" def __init__(self, message): self.message = message logger = logging.getLogger(__name__) logging.basicConfig(level=logging.INFO) def generate_text(model_id, body): """ Generate text using your provisioned custom model. Args: model_id (str): The model ID to use. body (str) : The request body to use. Returns: response (json): The response from the model. """ logger.info( "Generating text with your provisioned custom model %s", model_id) brt = boto3.client(service_name='bedrock-runtime') accept = "application/json" content_type = "application/json" response = brt.invoke_model( body=body, modelId=model_id, accept=accept, contentType=content_type ) response_body = json.loads(response.get("body").read()) finish_reason = response_body.get("error") if finish_reason is not None: raise ImageError(f"Text generation error. Error is {finish_reason}") logger.info( "Successfully generated text with provisioned custom model %s", model_id) return response_body def main(): """ Entrypoint for example. """ try: logging.basicConfig(level=logging.INFO, format="%(levelname)s: %(message)s") model_id = provisionedModelArn body = json.dumps({ "inputText": "what is AWS?" }) response_body = generate_text(model_id, body) print(f"Input token count: {response_body['inputTextTokenCount']}") for result in response_body['results']: print(f"Token count: {result['tokenCount']}") print(f"Output text: {result['outputText']}") print(f"Completion reason: {result['completionReason']}") except ClientError as err: message = err.response["Error"]["Message"] logger.error("A client error occurred: %s", message) print("A client error occured: " + format(message)) except ImageError as err: logger.error(err.message) print(err.message) else: print( f"Finished generating text with your provisioned custom model {model_id}.") if __name__ == "__main__": main()