As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Início rápido
Nesta seção, mostraremos como começar a usar o Amazon Bedrock em alguns minutos. Usaremos a API APIs: Responses API e Chat Completions, compatíveis com OpenAI, e a API Invoke and Converse para mostrar como executar uma solicitação de inferência. Consulte Criar para obter uma lista completa APIs.
Etapa 1 - Conta da AWS: Se você já tem uma conta da AWS, pule esta etapa e vá para a etapa 2. Se você é novo na AWS, cadastre-se em uma conta da AWS e siga as instruções.
Etapa 2 - Chave de API: Depois de ter uma conta da AWS, você pode criar uma chave de API de curto prazo para autenticar suas solicitações no Amazon Bedrock. Para fazer isso, acesse o serviço Amazon Bedrock no AWS Console e gere uma chave de curto prazo. Para aplicativos de produção, use funções do IAM ou credenciais temporárias. Para obter mais informações, consulte a seção Chaves de API no capítulo Build.
Etapa 3 - Obtenha o SDK: para usar este guia de introdução, você deve ter o Python já instalado. Em seguida, instale o software relevante, dependendo do APIs que você está usando.
- Responses/Chat Completions API
-
pip install boto3 openai
- Invoke/Converse API
-
pip install boto3
Etapa 4 - Definir variáveis de ambiente: configure seu ambiente para usar a chave de API para autenticação.
- Responses/Chat Completions API
-
OPENAI_API_KEY="<provide your Bedrock API key>"
OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
- Invoke/Converse API
-
AWS_BEARER_TOKEN_BEDROCK="<provide your Bedrock API key>"
Etapa 5 - Execute sua primeira solicitação de inferência: o Amazon Bedrock oferece suporte a mais de 100 modelos básicos. Escolha um modelo e use o código Python a seguir para executar sua primeira solicitação de inferência. Salve o arquivo como bedrock-first-request.py
- Responses API
-
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="openai.gpt-oss-120b",
input="Can you explain the features of Amazon Bedrock?"
)
print(response)
- Chat Completions API
-
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="openai.gpt-oss-120b",
messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}]
)
print(response)
- Invoke API
-
import json
import boto3
client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.invoke_model(
modelId='anthropic.claude-opus-4-6-v1',
body=json.dumps({
'anthropic_version': 'bedrock-2023-05-31',
'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}],
'max_tokens': 1024
})
)
print(json.loads(response['body'].read()))
- Converse API
-
import boto3
client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.converse(
modelId='anthropic.claude-opus-4-6-v1',
messages=[
{
'role': 'user',
'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}]
}
]
)
print(response)
Execute o código com Python usando o comando:
python3 bedrock-first-request.py
Você deve ver o resultado da sua solicitação de inferência.
Para saber mais sobre o uso de outros endpoints APIs e endpoints, consulte. Criar