Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Guida introduttiva
In questa sezione, ti mostreremo come iniziare a usare Amazon Bedrock in pochi minuti. Utilizzeremo le API Responses e Chat Completions, compatibili con APIs OpenAI, e le API Invoke e Converse per mostrarti come eseguire una richiesta di inferenza. Vedi l'elenco completo. Creazione APIs
Fase 1 - Account AWS: se hai già un account AWS, salta questo passaggio e vai al passaggio 2. Se non conosci AWS, registrati per un account AWS e segui le istruzioni.
Fase 2 - Chiave API: una volta creato un account AWS, puoi creare una chiave API a breve termine per autenticare le tue richieste su Amazon Bedrock. A tale scopo, accedi al servizio Amazon Bedrock nella console AWS e genera una chiave a breve termine. Per le applicazioni di produzione, usa ruoli IAM o credenziali temporanee. Per ulteriori informazioni, consulta la sezione Chiavi API nel capitolo Build.
Passaggio 3 - Scarica l'SDK: per utilizzare questa guida introduttiva, devi avere Python già installato. Quindi installa il software pertinente a seconda di APIs quello che stai utilizzando.
- Responses/Chat Completions API
-
pip install boto3 openai
- Invoke/Converse API
-
pip install boto3
Passaggio 4 - Imposta le variabili di ambiente: configura l'ambiente per utilizzare la chiave API per l'autenticazione.
- Responses/Chat Completions API
-
OPENAI_API_KEY="<provide your Bedrock API key>"
OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
- Invoke/Converse API
-
AWS_BEARER_TOKEN_BEDROCK="<provide your Bedrock API key>"
Fase 5 - Esegui la tua prima richiesta di inferenza: Amazon Bedrock supporta oltre 100 modelli di base. Scegli un modello, quindi usa il seguente codice Python per eseguire la tua prima richiesta di inferenza. Salva il file come bedrock-first-request.py
- Responses API
-
from openai import OpenAI
client = OpenAI()
response = client.responses.create(
model="openai.gpt-oss-120b",
input="Can you explain the features of Amazon Bedrock?"
)
print(response)
- Chat Completions API
-
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="openai.gpt-oss-120b",
messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}]
)
print(response)
- Invoke API
-
import json
import boto3
client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.invoke_model(
modelId='anthropic.claude-opus-4-6-v1',
body=json.dumps({
'anthropic_version': 'bedrock-2023-05-31',
'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}],
'max_tokens': 1024
})
)
print(json.loads(response['body'].read()))
- Converse API
-
import boto3
client = boto3.client('bedrock-runtime', region_name='us-east-1')
response = client.converse(
modelId='anthropic.claude-opus-4-6-v1',
messages=[
{
'role': 'user',
'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}]
}
]
)
print(response)
Esegui il codice con Python usando il comando:
python3 bedrock-first-request.py
Dovresti vedere l'output della tua richiesta di inferenza.
Per ulteriori informazioni sull'utilizzo di altri APIs endpoint, consulta. Creazione