

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verwenden der Invoke-API
<a name="using-invoke-api"></a>

 Die Invoke-API bietet direkten Zugriff auf Amazon Nova-Modelle mit mehr Möglichkeiten, das Anfrage- und Antwortformat zu steuern. Im Gegensatz zur Converse-API, die modellspezifische Details abstrahiert, ermöglicht Ihnen die Invoke-API, direkt mit den systemeigenen Anfrage- und Antwortstrukturen des Modells zu arbeiten. 

**Anmerkung**  
Die Invoke-API unterstützt dieselben Funktionen wie die Converse-API, mit Ausnahme der Dokumenteingabemodalität, die für die Converse-API spezifisch ist.

## Struktur der Anfrage
<a name="invoke-api-request"></a>

Für eine Invoke-API-Anfrage sind die Modell-ID und ein JSON-Anforderungstext erforderlich:

```
import boto3
import json

bedrock = boto3.client('bedrock-runtime', region_name='us-east-1')

request_body = {
    'messages': [
        {
            'role': 'user',
            'content': [{'text': 'What is machine learning?'}]
        }
    ],
    'inferenceConfig': {
        'maxTokens': 512,
        'temperature': 0.7
    }
}

response = bedrock.invoke_model(
    modelId='us.amazon.nova-2-lite-v1:0',
    body=json.dumps(request_body)
)

response_body = json.loads(response['body'].read())
content_list = response_body["output"]["message"]["content"]
# Extract the first text block
text_block = next((item for item in content_list if "text" in item), None)
if text_block is not None:
    print(text_block["text"])
```

## Anforderungsparameter
<a name="invoke-api-parameters"></a>

Die Invoke-API unterstützt die folgenden Schlüsselparameter:
+ `messages`: Reihe von Konversationsnachrichten mit Rolle und Inhalt
+ `system`: Optionale Systemaufforderung für Kontext und Anweisungen
+ `inferenceConfig`: Parameter, die die Modellausgabe steuern (Temperature, MaxTokens, ToPP, TopK, StopSequences, ReasoningConfig)
+ `toolConfig`: Werkzeugspezifikationen und Werkzeugauswahl für den Funktionsaufruf