

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Guida introduttiva
<a name="getting-started"></a>

In questa sezione, ti mostreremo come iniziare a usare Amazon Bedrock in pochi minuti. Utilizzeremo le [API Responses](bedrock-mantle.md) e [Chat Completions, compatibili con APIs OpenAI, e le API](inference-chat-completions.md) [Invoke](inference-invoke.md) e [Converse per mostrarti come eseguire una richiesta](conversation-inference.md) di inferenza. Vedi l'elenco completo. [Creazione](build.md) APIs

**Fase 1 - Account AWS:** se hai già un account AWS, salta questo passaggio e vai al passaggio 2. Se non conosci AWS, registrati per un [account AWS](https://portal.aws.amazon.com/billing/signup) e segui le istruzioni.

**Fase 2 - Chiave API:** una volta creato un account AWS, puoi creare una chiave API a lungo termine per autenticare le tue richieste su Amazon Bedrock. A tale scopo, accedi al [servizio Amazon Bedrock nella console AWS](https://console.aws.amazon.com/bedrock/home#/api-keys/long-term/create) e genera una chiave a lungo termine. Per ulteriori informazioni, consulta la sezione [Chiavi API](api-keys.md) nel capitolo [Build](build.md).

**Passaggio 3 - Scarica l'SDK:** per utilizzare questa guida introduttiva, devi avere Python già installato. Quindi installa il software pertinente a seconda di APIs quello che stai utilizzando.

------
#### [ Responses/Chat Completions API ]

```
pip install boto3 openai
```

------
#### [ Invoke/Converse API ]

```
pip install boto3
```

------

**Passaggio 4 - Imposta le variabili di ambiente:** configura l'ambiente per utilizzare la chiave API per l'autenticazione.

------
#### [ Responses/Chat Completions API ]

```
OPENAI_API_KEY="<provide your Bedrock API key>"
OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
```

------
#### [ Invoke/Converse API ]

```
AWS_BEARER_TOKEN_BEDROCK="<provide your Bedrock API key>"
```

------

**Fase 5 - Esegui la tua prima richiesta di inferenza:** Amazon Bedrock supporta [oltre 100](models.md) modelli di base. Scegli un modello, quindi usa il seguente codice Python per eseguire la tua prima richiesta di inferenza. Salva il file come `bedrock-first-request.py`

------
#### [ Responses API ]

```
from openai import OpenAI

client = OpenAI()

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input="Can you explain the features of Amazon Bedrock?"
    )
print(response)
```

------
#### [ Chat Completions API ]

```
from openai import OpenAI

client = OpenAI()

response = client.chat.completions.create(
    model="openai.gpt-oss-120b",
    messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}]
    )
print(response)
```

------
#### [ Invoke API ]

```
import json
import boto3

client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.invoke_model(
    modelId='anthropic.claude-opus-4-6-v1',
    body=json.dumps({
            'anthropic_version': 'bedrock-2023-05-31',
            'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}],
            'max_tokens': 1024
    })
 )
 print(json.loads(response['body'].read()))
```

------
#### [ Converse API ]

```
import boto3

client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.converse(
    modelId='anthropic.claude-opus-4-6-v1',
    messages=[
        {
            'role': 'user',
            'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}]
        }
    ]
)
print(response)
```

------

Esegui il codice con Python usando il comando:

```
python3 bedrock-first-request.py
```

Dovresti vedere l'output della tua richiesta di inferenza.

Per ulteriori informazioni sull'utilizzo di altri APIs endpoint, consulta. [Creazione](build.md)