Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Senden Sie eine einzelne Aufforderung mit InvokeModel

Fokusmodus
Senden Sie eine einzelne Aufforderung mit InvokeModel - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Führen Sie über die API eine Inferenz für ein Modell durch, indem Sie eine InvokeModelWithResponseStreamOder-Anfrage InvokeModelsenden. Um zu überprüfen, ob ein Modell Streaming unterstützt, senden Sie eine GetFoundationModelListFoundationModelsOder-Anfrage und überprüfen Sie den Wert im responseStreamingSupported Feld.

Die folgenden Felder sind erforderlich:

Feld Anwendungsfall
modelId Um das zu verwendende Modell, das Inferenzprofil oder die Aufforderung aus der Prompt-Verwaltung anzugeben. Informationen zum Ermitteln dieses Werts finden Sie unterSenden Sie Eingabeaufforderungen und generieren Sie Antworten mithilfe der API.
body Um die Inferenzparameter für ein Modell anzugeben. Informationen zu Inferenzparametern für verschiedene Modelle finden Sie unter. Inferenzanforderungsparameter und Antwortfelder für Foundation-Modelle Wenn Sie in dem modelId Feld eine Aufforderung aus der Eingabeaufforderungsverwaltung angeben, lassen Sie dieses Feld weg (wenn Sie es angeben, wird es ignoriert).

Die folgenden Felder sind optional:

Feld Anwendungsfall
akzeptieren Um den Medientyp für den Anforderungstext anzugeben. Weitere Informationen finden Sie unter Medientypen auf der Swagger Website.
contentType Um den Medientyp für den Antworttext anzugeben. Weitere Informationen finden Sie unter Medientypen auf der Swagger Website.
explicitPromptCaching Um anzugeben, ob das Zwischenspeichern von Eingabeaufforderungen aktiviert oder deaktiviert ist. Weitere Informationen finden Sie unter Promptes Caching für schnellere Modellinferenz.
GuardrailIdentifier Um eine Leitplanke anzugeben, die auf die Aufforderung und die Antwort angewendet werden soll. Weitere Informationen finden Sie unter Testen Sie eine Leitplanke.
Guardrail-Version Um eine Leitplanke anzugeben, die auf die Aufforderung und die Antwort angewendet werden soll. Weitere Informationen finden Sie unter Testen Sie eine Leitplanke.
Spur Um anzugeben, ob der Trace für die von Ihnen angegebene Leitplanke zurückgegeben werden soll. Weitere Informationen finden Sie unter Testen Sie eine Leitplanke.

Beispiel für das Aufrufen von Modellcode

Die folgenden Beispiele zeigen, wie Inferenzen mit der API ausgeführt werden. InvokeModel Beispiele mit unterschiedlichen Modellen finden Sie in der Referenz zu den Inferenzparametern für das gewünschte Modell (Inferenzanforderungsparameter und Antwortfelder für Foundation-Modelle).

CLI

Im folgenden Beispiel wird die generierte Antwort auf die Aufforderung in einer Datei story of two dogs mit dem Namen invoke-model-output.txt gespeichert.

aws bedrock-runtime invoke-model \ --model-id anthropic.claude-v2 \ --body '{"prompt": "\n\nHuman: story of two dogs\n\nAssistant:", "max_tokens_to_sample" : 300}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output.txt
Python

Das folgende Beispiel gibt eine generierte Antwort auf die Aufforderung zurückexplain black holes to 8th graders.

import boto3 import json brt = boto3.client(service_name='bedrock-runtime') body = json.dumps({ "prompt": "\n\nHuman: explain black holes to 8th graders\n\nAssistant:", "max_tokens_to_sample": 300, "temperature": 0.1, "top_p": 0.9, }) modelId = 'anthropic.claude-v2' accept = 'application/json' contentType = 'application/json' response = brt.invoke_model(body=body, modelId=modelId, accept=accept, contentType=contentType) response_body = json.loads(response.get('body').read()) # text print(response_body.get('completion'))

Im folgenden Beispiel wird die generierte Antwort auf die Aufforderung in einer Datei story of two dogs mit dem Namen invoke-model-output.txt gespeichert.

aws bedrock-runtime invoke-model \ --model-id anthropic.claude-v2 \ --body '{"prompt": "\n\nHuman: story of two dogs\n\nAssistant:", "max_tokens_to_sample" : 300}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output.txt

Beispiel für das Aufrufen eines Modells mit Streaming-Code

Anmerkung

Das AWS CLI unterstützt kein Streaming.

Das folgende Beispiel zeigt, wie die InvokeModelWithResponseStreamAPI verwendet wird, um Streaming-Text mit Python mithilfe der Eingabeaufforderung zu generierenwrite an essay for living on mars in 1000 words.

import boto3 import json brt = boto3.client(service_name='bedrock-runtime') body = json.dumps({ 'prompt': '\n\nHuman: write an essay for living on mars in 1000 words\n\nAssistant:', 'max_tokens_to_sample': 4000 }) response = brt.invoke_model_with_response_stream( modelId='anthropic.claude-v2', body=body ) stream = response.get('body') if stream: for event in stream: chunk = event.get('chunk') if chunk: print(json.loads(chunk.get('bytes').decode()))
DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.