Execute exemplos de API solicitações do Amazon Bedrock usando um notebook da Amazon SageMaker - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Execute exemplos de API solicitações do Amazon Bedrock usando um notebook da Amazon SageMaker

Esta seção orienta você a experimentar algumas operações comuns no Amazon Bedrock com um SageMaker notebook Amazon para testar se suas permissões de função no Amazon Bedrock estão configuradas corretamente. Antes de executar os exemplos a seguir, verifique se você atendeu aos seguintes pré-requisitos:

Pré-requisitos

  • Você tem um Conta da AWS e ter permissões para acessar uma função com as permissões necessárias para o Amazon Bedrock. Caso contrário, siga as etapas emEu já tenho um Conta da AWS.

  • Você solicitou acesso ao Amazon Titan Text G1 - Express modelo. Caso contrário, siga as etapas emSolicite acesso a um modelo da Amazon Bedrock Foundation.

  • Execute as etapas a seguir para configurar IAM permissões SageMaker e criar um notebook:

    1. Modifique a política de confiança da função Amazon Bedrock que você configurou Eu já tenho um Conta da AWS por meio do console, CLI, ou API. Anexe a seguinte política de confiança à função para permitir que o Amazon Bedrock e os SageMaker serviços assumam a função Amazon Bedrock:

      { "Version": "2012-10-17", "Statement": [ { "Sid": "BedrockTrust", "Effect": "Allow", "Principal": { "Service": "bedrock.amazonaws.com" }, "Action": "sts:AssumeRole" }, { "Sid": "SagemakerTrust", "Effect": "Allow", "Principal": { "Service": "sagemaker.amazonaws.com" }, "Action": "sts:AssumeRole" } ] }
    2. Faça login na função Amazon Bedrock cuja política de confiança você acabou de modificar.

    3. Siga as etapas em Criar uma instância de SageMaker notebook da Amazon para ver o tutorial e especifique a função ARN do Amazon Bedrock que você criou para criar uma instância de SageMaker notebook.

    4. Quando o Status da instância do notebook for InService, escolha a instância e, em seguida, escolha Abrir JupyterLab.

Depois de abrir seu SageMaker caderno, você pode experimentar os seguintes exemplos:

Liste os modelos básicos que o Amazon Bedrock tem a oferecer

O exemplo a seguir executa a ListFoundationModelsoperação usando um cliente Amazon Bedrock. ListFoundationModelslista os modelos de fundação (FMs) que estão disponíveis no Amazon Bedrock em sua região. Execute o seguinte script SDK para Python para criar um cliente Amazon Bedrock e testar a operação: ListFoundationModels

# Use the ListFoundationModels API to show the models that are available in your region. import boto3 # Create an &BR; client in the &region-us-east-1; Region. bedrock = boto3.client( service_name="bedrock" ) bedrock.list_foundation_models()

Se o script for bem-sucedido, a resposta retornará uma lista de modelos básicos que estão disponíveis no Amazon Bedrock.

Envie uma solicitação de texto para um modelo e gere uma resposta

O exemplo a seguir executa a operação Converse usando um cliente Amazon Bedrock. Conversepermite que você envie uma solicitação para gerar uma resposta do modelo. Execute o seguinte script SDK para Python para criar um cliente de tempo de execução do Amazon Bedrock e testar a operação Converse:

# Use the Conversation API to send a text message to Amazon Titan Text G1 - Express. import boto3 from botocore.exceptions import ClientError # Create an Amazon Bedrock Runtime client. brt = boto3.client("bedrock-runtime") # Set the model ID, e.g., Amazon Titan Text G1 - Express. model_id = "amazon.titan-text-express-v1" # Start a conversation with the user message. user_message = "Describe the purpose of a 'hello world' program in one line." conversation = [ { "role": "user", "content": [{"text": user_message}], } ] try: # Send the message to the model, using a basic inference configuration. response = brt.converse( modelId=model_id, messages=conversation, inferenceConfig={"maxTokens": 512, "temperature": 0.5, "topP": 0.9}, ) # Extract and print the response text. response_text = response["output"]["message"]["content"][0]["text"] print(response_text) except (ClientError, Exception) as e: print(f"ERROR: Can't invoke '{model_id}'. Reason: {e}") exit(1)

Se o comando for bem-sucedido, a resposta retornará o texto gerado pelo modelo em resposta ao prompt.