Schnelle technische Konzepte - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Schnelle technische Konzepte

Prompt Engineering bezieht sich auf die Praxis, Texteingaben anhand eines Large Language Model (LLM) zu optimieren, um die gewünschten Antworten zu erhalten. Mithilfe von Eingabeaufforderungen LLM können Sie eine Vielzahl von Aufgaben ausführen, darunter Klassifizierung, Beantwortung von Fragen, Codegenerierung, kreatives Schreiben und mehr. Die Qualität der Eingabeaufforderungen, die Sie an a senden, LLM kann sich auf die Qualität der Antworten des Modells auswirken. In diesem Abschnitt finden Sie die notwendigen Informationen, um mit Prompt Engineering zu beginnen. Es behandelt auch Tools, die Ihnen helfen, das bestmögliche Eingabeaufforderungsformat für Ihren Anwendungsfall zu finden, wenn Sie a LLM auf Amazon Bedrock verwenden.

Anmerkung

Alle Beispiele in diesem Dokument werden per API Telefonanruf abgerufen. Die Antwort kann aufgrund des stochastischen Charakters des LLM Generierungsprozesses variieren. Sofern nicht anders angegeben, wurden die Eingabeaufforderungen von Mitarbeitern geschrieben AWS.

Amazon Bedrock umfasst Modelle verschiedener Anbieter. Im Folgenden finden Sie eine kurze Liste der technischen Richtlinien für diese Modelle.

Haftungsausschluss: Die Beispiele in diesem Dokument verwenden die aktuellen Textmodelle, die in Amazon Bedrock verfügbar sind. Außerdem enthält dieses Dokument allgemeine Richtlinien zu Eingabeaufforderungen. Modellspezifische Anleitungen finden Sie in den entsprechenden Dokumenten in Amazon Bedrock. Dieses Dokument bietet einen Ausgangspunkt. Die folgenden Beispielantworten werden zwar anhand bestimmter Modelle in Amazon Bedrock generiert, Sie können jedoch auch andere Modelle in Amazon Bedrock verwenden, um Ergebnisse zu erzielen. Die Ergebnisse können je nach Modell unterschiedlich sein, da jedes Modell eigene Leistungsmerkmale hat. Die Ausgabe, die Sie mithilfe von KI-Services generieren, ist Ihr Inhalt. Aufgrund der Beschaffenheit von Machine Learning ist die Ausgabe möglicherweise nicht kundenspezifisch und die Services können bei allen Kunden dieselben oder ähnliche Ergebnisse erzielen.