

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Inicio rápido
<a name="getting-started"></a>

En esta sección, le mostraremos cómo empezar a utilizar Amazon Bedrock en unos minutos. Usaremos las [API Responses](bedrock-mantle.md) y [Chat Completions, compatibles con OpenAI APIs, y las API](inference-chat-completions.md) [Invoke](inference-invoke.md) y [Converse para mostrarte cómo ejecutar una solicitud](conversation-inference.md) de inferencia. Consulte APIs la lista completa. [Build](build.md)

**Paso 1: Cuenta de AWS:** si ya tiene una cuenta de AWS, omita este paso y vaya al paso 2. Si es la primera vez que utiliza AWS, regístrese para obtener una [cuenta de AWS](https://portal.aws.amazon.com/billing/signup) y siga las instrucciones.

**Paso 2: Clave de API:** una vez que tenga una cuenta de AWS, podrá crear una clave de API a largo plazo para autenticar sus solicitudes en Amazon Bedrock. Para ello, vaya al [servicio Amazon Bedrock en la consola de AWS](https://console.aws.amazon.com/bedrock/home#/api-keys/long-term/create) y genere una clave a largo plazo. Para obtener más información, consulte la sección de [claves de API](api-keys.md) en el capítulo [Creación](build.md).

**Paso 3: Obtenga el SDK:** para usar esta guía de introducción, debe tener Python ya instalado. A continuación, instale el software correspondiente en función del APIs que esté utilizando.

------
#### [ Responses/Chat Completions API ]

```
pip install boto3 openai
```

------
#### [ Invoke/Converse API ]

```
pip install boto3
```

------

**Paso 4: Defina las variables de entorno:** configure su entorno para que utilice la clave API para la autenticación.

------
#### [ Responses/Chat Completions API ]

```
OPENAI_API_KEY="<provide your Bedrock API key>"
OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
```

------
#### [ Invoke/Converse API ]

```
AWS_BEARER_TOKEN_BEDROCK="<provide your Bedrock API key>"
```

------

**Paso 5: Ejecute su primera solicitud de inferencia:** Amazon Bedrock admite más de [100](models.md) modelos de base. Elija un modelo y, a continuación, utilice el siguiente código de Python para ejecutar la primera solicitud de inferencia. Guarde el archivo como `bedrock-first-request.py`

------
#### [ Responses API ]

```
from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input="Can you explain the features of Amazon Bedrock?"
    )
print(response)
```

------
#### [ Chat Completions API ]

```
from openai import OpenAI

client = OpenAI()

response = client.chat.completions.create(
    model="openai.gpt-oss-120b",
    messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}]
    )
print(response)
```

------
#### [ Invoke API ]

```
import json
import boto3

client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.invoke_model(
    modelId='anthropic.claude-opus-4-6-v1',
    body=json.dumps({
            'anthropic_version': 'bedrock-2023-05-31',
            'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}],
            'max_tokens': 1024
    })
 )
 print(json.loads(response['body'].read()))
```

------
#### [ Converse API ]

```
import boto3

client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.converse(
    modelId='anthropic.claude-opus-4-6-v1',
    messages=[
        {
            'role': 'user',
            'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}]
        }
    ]
)
print(response)
```

------

Ejecute el código con Python mediante el comando:

```
python3 bedrock-first-request.py
```

Deberías ver el resultado de tu solicitud de inferencia.

Para obtener más información sobre el uso APIs de otros puntos finales, consulte. [Build](build.md)