Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Erstellen Sie eine Aufforderung mithilfe der Eingabeaufforderungsverwaltung
Wenn Sie eine Aufforderung erstellen, haben Sie die folgenden Optionen:
-
Schreiben Sie die Eingabeaufforderungsnachricht, die als Eingabe für ein FM dient, um eine Ausgabe zu generieren.
-
Verwenden Sie doppelte geschweifte Klammern, um Variablen (wie in{{variable}}
) in die Eingabeaufforderung aufzunehmen, die beim Aufrufen der Eingabeaufforderung ausgefüllt werden können.
-
Wählen Sie ein Modell, mit dem die Aufforderung aufgerufen werden soll, oder lassen Sie es unspezifiziert, falls Sie die Aufforderung mit einem Agenten verwenden möchten. Wenn Sie ein Modell auswählen, können Sie auch die zu verwendenden Inferenzkonfigurationen ändern. Informationen zu Inferenzparametern für verschiedene Modelle finden Sie unter. Inferenzanforderungsparameter und Antwortfelder für Foundation-Modelle
Alle Eingabeaufforderungen unterstützen die folgenden grundlegenden Inferenzparameter:
maxTokens — Die maximale Anzahl von Token, die in der generierten Antwort zulässig sind.
stopSequences — Eine Liste von Stoppsequenzen. Eine Stoppsequenz ist eine Folge von Zeichen, die dazu führt, dass das Modell die Generierung der Antwort beendet.
Temperatur — Die Wahrscheinlichkeit, dass das Modell beim Generieren einer Antwort Optionen mit höherer Wahrscheinlichkeit auswählt.
TopP — Der Prozentsatz der wahrscheinlichsten Kandidaten, die das Modell für das nächste Token berücksichtigt.
Wenn ein Modell zusätzliche Inferenzparameter unterstützt, können Sie diese als zusätzliche Felder für Ihre Aufforderung angeben. Sie geben die zusätzlichen Felder in einem JSON-Objekt an. Das folgende Beispiel zeigt, wie festgelegt wirdtop_k
, was verfügbar ist in Anthropic Claude Modelle, ist aber kein grundlegender Inferenzparameter.
{
"top_k": 200
}
Informationen zu Modellinferenzparametern finden Sie unter Inferenzanforderungsparameter und Antwortfelder für Basismodelle.
Wenn das Modell, das Sie für die Aufforderung auswählen, die Converse-API unterstützt (weitere Informationen finden Sie unterFühren Sie ein Gespräch mit dem Converse API-Operationen), können Sie bei der Erstellung der Aufforderung Folgendes berücksichtigen:
-
Eine Systemaufforderung, um Anweisungen oder einen Kontext für das Modell bereitzustellen.
-
Frühere Eingabeaufforderungen (Benutzermeldungen) und Modellantworten (Assistentennachrichten) als Konversationsverlauf, den das Modell bei der Generierung einer Antwort für die endgültige Benutzernachricht berücksichtigen kann.
-
(Falls vom Modell unterstützt) Tools, die das Modell bei der Generierung der Antwort verwenden soll.
Wenn Sie einen Basisinferenzparameter als zusätzliches Feld festlegen, wird der Wert, den Sie in der Konsole festgelegt haben, nicht überschrieben.
Um zu erfahren, wie Sie mithilfe der Eingabeaufforderungsverwaltung eine Aufforderung erstellen, wählen Sie die Registerkarte für Ihre bevorzugte Methode und gehen Sie dann wie folgt vor:
- Console
-
So erstellen Sie eine Telefonansage
-
Melden Sie sich bei der Rolle AWS Management Console Using an IAM mit Amazon Bedrock-Berechtigungen an und öffnen Sie die Amazon Bedrock-Konsole unter Getting Started with the. AWS Management Console
-
Wählen Sie im linken Navigationsbereich die Option Prompt-Verwaltung aus. Wählen Sie dann Aufforderung erstellen aus.
-
Geben Sie einen Namen für die Aufforderung und optional eine Beschreibung ein.
-
Um Ihre Aufforderung mit einem vom Kunden verwalteten Schlüssel zu verschlüsseln, wählen Sie im Bereich KMS-Schlüsselauswahl die Option Verschlüsselungseinstellungen anpassen (erweitert) aus. Wenn Sie dieses Feld weglassen, wird Ihre Eingabeaufforderung mit einem verschlüsselt. Von AWS verwalteter Schlüssel Weitere Informationen finden Sie unter AWS KMS Schlüssel.
-
Wählen Sie „Aufforderung erstellen“. Ihr Prompt wird erstellt und Sie werden zum Prompt-Builder für Ihren neu erstellten Prompt weitergeleitet, wo Sie Ihren Prompt konfigurieren können.
-
Sie können mit dem folgenden Verfahren fortfahren, um Ihren Prompt zu konfigurieren, oder später zum Prompt Builder zurückkehren.
Um Ihre Eingabeaufforderung zu konfigurieren
-
Wenn Sie sich noch nicht im Prompt Builder befinden, gehen Sie wie folgt vor:
-
Melden Sie sich bei der Rolle AWS Management Console Using an IAM mit Amazon Bedrock-Berechtigungen an und öffnen Sie die Amazon Bedrock-Konsole unter Getting Started with the. AWS Management Console
-
Wählen Sie im linken Navigationsbereich die Option Prompt-Verwaltung aus. Wählen Sie dann im Abschnitt Eingabeaufforderungen eine Aufforderung aus.
-
Wählen Sie im Bereich Prompt-Entwurf die Option Im Prompt-Generator bearbeiten aus.
-
Verwenden Sie den Bereich „Eingabeaufforderung“, um die Aufforderung zu erstellen. Geben Sie die Aufforderung in das letzte Benutzermeldungsfeld ein. Wenn das Modell die Converse-API unterstützt oder AnthropicClaude Mit der Nachrichten-API können Sie auch eine Systemaufforderung und frühere Benutzermeldungen und Assistentenmeldungen als Kontext hinzufügen.
Wenn Sie eine Aufforderung schreiben, können Sie Variablen in doppelten geschweiften Klammern einschließen (wie in{{variable}}
). Jede Variable, die Sie angeben, wird im Abschnitt Testvariablen angezeigt.
-
(Optional) Sie können Ihre Eingabeaufforderung auf folgende Weise ändern:
-
Gehen Sie im Bereich Konfigurationen wie folgt vor:
-
Wählen Sie eine Generative KI-Ressource zum Ausführen von Inferenzen aus.
-
Stellen Sie die Inferenzparameter ein. Um zusätzliche Inferenzparameter anzugeben, öffnen Sie Zusätzliche Modellanforderungsfelder und wählen Sie Konfigurieren.
-
Wenn das von Ihnen gewählte Modell Werkzeuge unterstützt, wählen Sie Werkzeuge konfigurieren, um Werkzeuge mit der entsprechenden Aufforderung zu verwenden.
-
Um verschiedene Varianten Ihrer Aufforderung zu vergleichen, wählen Sie Aktionen und dann Aufforderungsvarianten vergleichen aus. Auf der Vergleichsseite können Sie wie folgt vorgehen:
-
Um eine Variante hinzuzufügen, wählen Sie das Pluszeichen. Sie können bis zu drei Varianten hinzufügen.
-
Nachdem Sie die Details einer Variante angegeben haben, können Sie beliebige Testvariablen angeben und Ausführen wählen, um die Ausgabe der Variante zu testen.
-
Um eine Variante zu löschen, klicken Sie auf die drei Punkte und wählen Sie Aus Vergleich entfernen aus.
-
Um den Arbeitsentwurf zu ersetzen und den Vergleichsmodus zu verlassen, wählen Sie Als Entwurf speichern. Alle anderen Varianten werden gelöscht.
-
Um den Vergleichsmodus zu verlassen, wählen Sie Vergleichsmodus beenden.
-
Wenn Sie mit der Konfiguration der Aufforderung fertig sind, haben Sie die folgenden Optionen:
- API
-
Um eine Aufforderung zu erstellen, senden Sie eine CreatePromptAnfrage mit einem Build-Time-Endpunkt von Agents for Amazon Bedrock.
Die folgenden Felder sind erforderlich:
Feld |
Kurze Beschreibung |
Name |
Ein Name für die Aufforderung. |
Varianten |
Eine Liste verschiedener Konfigurationen für die Aufforderung (siehe unten). |
Standardvariante |
Der Name der Standardvariante. |
Jede Variante in der variants
Liste ist ein PromptVariantObjekt mit der folgenden allgemeinen Struktur:
{
"name": "string",
# modelId or genAiResource (see below)
"templateType": "TEXT",
"templateConfiguration": # see below,
"inferenceConfiguration": {
"text": {
"maxTokens": int,
"stopSequences": ["string", ...],
"temperature": float,
"topP": float
}
},
"additionalModelRequestFields": {
"key": "value",
...
},
"metadata": [
{
"key": "string",
"value": "string"
},
...
]
}
Füllen Sie die Felder wie folgt aus:
-
Name — Geben Sie einen Namen für die Variante ein.
-
Fügen Sie je nach der zu verwendenden Modellaufrufressource eines der folgenden Felder ein:
-
modelId — Um ein Foundation-Modell oder ein Inferenzprofil anzugeben, das mit der Aufforderung verwendet werden soll, geben Sie dessen ARN oder ID ein.
-
genAiResource — Um einen Agenten zu spezifizieren, geben Sie dessen ID oder ARN ein. Der Wert von genAiResource
ist ein JSON-Objekt des folgenden Formats:
{
"genAiResource": {
"agent": {
"agentIdentifier": "string"
}
}
Wenn Sie das genAiResource
Feld einbeziehen, können Sie die Eingabeaufforderung nur in der Konsole testen. Um eine Aufforderung mit einem Agenten in der API zu testen, müssen Sie den Text der Aufforderung direkt in das inputText
Feld der InvokeAgent request.
-
TemplateType — Geben Sie oder einTEXT
. CHAT
CHAT
ist nur mit Modellen kompatibel, die die Converse-API unterstützen.
-
TemplateConfiguration — Der Wert hängt vom angegebenen Vorlagentyp ab:
-
InferenceConfiguration — Das text
Feld ist einem zugeordnet. PromptModelInferenceConfiguration Dieses Feld enthält Inferenzparameter, die allen Modellen gemeinsam sind. Weitere Informationen zu Inferenzparametern finden Sie unter. Beeinflussen Sie die Antwortgenerierung mit Inferenzparametern
-
additionalModelRequestFelder — Verwenden Sie dieses Feld, um Inferenzparameter anzugeben, die für das Modell spezifisch sind, mit dem Sie die Inferenz ausführen. Weitere Informationen zu modellspezifischen Inferenzparametern finden Sie unter. Inferenzanforderungsparameter und Antwortfelder für Foundation-Modelle
-
Metadaten — Metadaten, die der Prompt-Variante zugeordnet werden sollen. Sie können Schlüssel-Wert-Paare an das Array anhängen, um die Prompt-Variante mit Metadaten zu kennzeichnen.
Die folgenden Felder sind optional:
Feld |
Anwendungsfall |
description |
Um eine Beschreibung für die Aufforderung bereitzustellen. |
clientToken |
Um sicherzustellen, dass die API-Anfrage nur einmal abgeschlossen wird. Weitere Informationen finden Sie unter Sicherstellung der Idempotenz. |
tags |
Um dem Flow Tags zuzuordnen. Weitere Informationen finden Sie unter Taggen von Amazon Bedrock-Ressourcen. |
Die Antwort erstellt eine DRAFT
Version und gibt eine ID und einen ARN zurück, die Sie als Prompt-ID für andere API-Anfragen im Zusammenhang mit Prompts verwenden können.