

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Início rápido
<a name="getting-started"></a>

Nesta seção, mostraremos como começar a usar o Amazon Bedrock em alguns minutos. Usaremos a API APIs: [Responses API](bedrock-mantle.md) e [Chat Completions, compatíveis com OpenAI, e a API](inference-chat-completions.md) [Invoke](inference-invoke.md) and [Converse para mostrar como executar uma solicitação](conversation-inference.md) de inferência. Consulte [Criar](build.md) para obter uma lista completa APIs.

**Etapa 1 - Conta da AWS:** Se você já tem uma conta da AWS, pule esta etapa e vá para a etapa 2. Se você é novo na AWS, cadastre-se em uma [conta da AWS](https://portal.aws.amazon.com/billing/signup) e siga as instruções.

**Etapa 2 - Chave de API:** Depois de ter uma conta da AWS, você pode criar uma chave de API de longo prazo para autenticar suas solicitações no Amazon Bedrock. Para fazer isso, acesse o [serviço Amazon Bedrock no AWS Console](https://console.aws.amazon.com/bedrock/home#/api-keys/long-term/create) e gere uma chave de longo prazo. Para obter mais informações, consulte a seção [Chaves de API](api-keys.md) no capítulo [Build](build.md).

**Etapa 3 - Obtenha o SDK:** para usar este guia de introdução, você deve ter o Python já instalado. Em seguida, instale o software relevante, dependendo do APIs que você está usando.

------
#### [ Responses/Chat Completions API ]

```
pip install boto3 openai
```

------
#### [ Invoke/Converse API ]

```
pip install boto3
```

------

**Etapa 4 - Definir variáveis de ambiente:** configure seu ambiente para usar a chave de API para autenticação.

------
#### [ Responses/Chat Completions API ]

```
OPENAI_API_KEY="<provide your Bedrock API key>"
OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
```

------
#### [ Invoke/Converse API ]

```
AWS_BEARER_TOKEN_BEDROCK="<provide your Bedrock API key>"
```

------

**Etapa 5 - Execute sua primeira solicitação de inferência:** o Amazon Bedrock oferece suporte a mais de [100 modelos básicos](models.md). Escolha um modelo e use o código Python a seguir para executar sua primeira solicitação de inferência. Salve o arquivo como `bedrock-first-request.py`

------
#### [ Responses API ]

```
from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input="Can you explain the features of Amazon Bedrock?"
    )
print(response)
```

------
#### [ Chat Completions API ]

```
from openai import OpenAI

client = OpenAI()

response = client.chat.completions.create(
    model="openai.gpt-oss-120b",
    messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}]
    )
print(response)
```

------
#### [ Invoke API ]

```
import json
import boto3

client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.invoke_model(
    modelId='anthropic.claude-opus-4-6-v1',
    body=json.dumps({
            'anthropic_version': 'bedrock-2023-05-31',
            'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}],
            'max_tokens': 1024
    })
 )
 print(json.loads(response['body'].read()))
```

------
#### [ Converse API ]

```
import boto3

client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.converse(
    modelId='anthropic.claude-opus-4-6-v1',
    messages=[
        {
            'role': 'user',
            'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}]
        }
    ]
)
print(response)
```

------

Execute o código com Python usando o comando:

```
python3 bedrock-first-request.py
```

Você deve ver o resultado da sua solicitação de inferência.

Para saber mais sobre o uso de outros endpoints APIs e endpoints, consulte. [Criar](build.md)