View a markdown version of this page

Utilizzo dell’API Invoke - Amazon Nova

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Utilizzo dell’API Invoke

L'API Invoke fornisce l'accesso diretto ai modelli Amazon Nova con una maggiore capacità di controllare il formato di richiesta e risposta. A differenza dell'API Converse che astrae i dettagli specifici del modello, l'API Invoke consente di lavorare direttamente con le strutture di richiesta e risposta native del modello.

Nota

L'API Invoke supporta le stesse funzionalità dell'API Converse ad eccezione della modalità di immissione dei documenti, che è specifica dell'API Converse.

Struttura della richiesta

Una richiesta API Invoke richiede l'ID del modello e un corpo della richiesta JSON:

import boto3 import json bedrock = boto3.client('bedrock-runtime', region_name='us-east-1') request_body = { 'messages': [ { 'role': 'user', 'content': [{'text': 'What is machine learning?'}] } ], 'inferenceConfig': { 'maxTokens': 512, 'temperature': 0.7 } } response = bedrock.invoke_model( modelId='us.amazon.nova-2-lite-v1:0', body=json.dumps(request_body) ) response_body = json.loads(response['body'].read()) content_list = response_body["output"]["message"]["content"] # Extract the first text block text_block = next((item for item in content_list if "text" in item), None) if text_block is not None: print(text_block["text"])

Parametri della richiesta

L'API Invoke supporta i seguenti parametri chiave:

  • messages: serie di messaggi di conversazione con ruolo e contenuto

  • system: Richiesta di sistema opzionale per il contesto e le istruzioni

  • inferenceConfig: Parametri che controllano l'output del modello (temperature, maxTokens, TopP, TopK, stopSequences, ReasoningConfig)

  • toolConfig: Specifiche degli strumenti e scelta degli strumenti per la chiamata delle funzioni