Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizzo dell’API Invoke
L'API Invoke fornisce l'accesso diretto ai modelli Amazon Nova con una maggiore capacità di controllare il formato di richiesta e risposta. A differenza dell'API Converse che astrae i dettagli specifici del modello, l'API Invoke consente di lavorare direttamente con le strutture di richiesta e risposta native del modello.
Nota
L'API Invoke supporta le stesse funzionalità dell'API Converse ad eccezione della modalità di immissione dei documenti, che è specifica dell'API Converse.
Struttura della richiesta
Una richiesta API Invoke richiede l'ID del modello e un corpo della richiesta JSON:
import boto3 import json bedrock = boto3.client('bedrock-runtime', region_name='us-east-1') request_body = { 'messages': [ { 'role': 'user', 'content': [{'text': 'What is machine learning?'}] } ], 'inferenceConfig': { 'maxTokens': 512, 'temperature': 0.7 } } response = bedrock.invoke_model( modelId='us.amazon.nova-2-lite-v1:0', body=json.dumps(request_body) ) response_body = json.loads(response['body'].read()) content_list = response_body["output"]["message"]["content"] # Extract the first text block text_block = next((item for item in content_list if "text" in item), None) if text_block is not None: print(text_block["text"])
Parametri della richiesta
L'API Invoke supporta i seguenti parametri chiave:
-
messages: serie di messaggi di conversazione con ruolo e contenuto -
system: Richiesta di sistema opzionale per il contesto e le istruzioni -
inferenceConfig: Parametri che controllano l'output del modello (temperature, maxTokens, TopP, TopK, stopSequences, ReasoningConfig) -
toolConfig: Specifiche degli strumenti e scelta degli strumenti per la chiamata delle funzioni