Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Senden Sie Eingabeaufforderungen und generieren Sie Antworten mit Modellinferenz
Inferenz bezieht sich auf den Prozess der Generierung einer Ausgabe anhand einer Eingabe, die für ein Modell bereitgestellt wird.
Amazon Bedrock bietet eine Reihe von Basismodellen, mit denen Sie Ausgaben der folgenden Modalitäten generieren können. Informationen zur Modalitätsunterstützung nach Stiftungsmodell finden Sie unter. Unterstützte Basismodelle in Amazon Bedrock
Ausgabemodalität | Beschreibung | Beispielanwendungsfälle |
---|---|---|
Text | Stellen Sie Texteingaben bereit und generieren Sie verschiedene Texttypen | Chat question-and-answering, Brainstorming, Zusammenfassung, Codegenerierung, Tabellenerstellung, Datenformatierung, Umschreiben |
Image | Stellen Sie Text oder Eingabebilder bereit und generieren oder ändern Sie Bilder | Bilderzeugung, Bildbearbeitung, Bildvariation |
Einbettungen | Stellen Sie Text, Bilder oder sowohl Text als auch Bilder bereit und generieren Sie einen Vektor mit numerischen Werten, die die Eingabe darstellen. Der Ausgabevektor kann mit anderen Einbettungsvektoren verglichen werden, um die semantische Ähnlichkeit (für Text) oder die visuelle Ähnlichkeit (für Bilder) zu bestimmen. | Text- und Bildsuche, Abfrage, Kategorisierung, Empfehlungen, Personalisierung, Erstellung von Wissensdatenbanken |
Sie können die Modellinferenz auf folgende Weise direkt ausführen:
-
Verwenden Sie in der AWS Management Console einen der Amazon Bedrock Playgrounds, um Inferenzen in einer benutzerfreundlichen grafischen Oberfläche auszuführen.
Verwenden Sie Converse oder ConverseStreamAPI, um Konversationsanwendungen zu implementieren.
-
Verwenden Sie die InvokeModelWithResponseStreamAPI InvokeModeloder, um eine einzelne Aufforderung einzureichen.
-
Bereiten Sie einen Datensatz mit Eingabeaufforderungen mit den gewünschten Konfigurationen vor und führen Sie eine Batch-Inferenz mit einer CreateModelInvocationJob-Anforderung aus.
Die folgenden Funktionen von Amazon Bedrock verwenden auch Modellinferenz als Schritt in einem größeren Workflow:
-
Die Modellevaluierung verwendet den Modellaufrufprozess, um die Leistung verschiedener Modelle zu bewerten, nachdem Sie eine Anfrage eingereicht haben. CreateEvaluationJob
-
Wissensdatenbanken verwenden den Modellaufruf bei der Verwendung von RetrieveAndGenerateAPI zum Generieren einer Antwort auf der Grundlage von Ergebnissen, die aus einer Wissensdatenbank abgerufen wurden.
-
Agenten verwenden den Modellaufruf, um Antworten in verschiedenen Phasen während eines InvokeAgent request.
-
Flows umfassen Amazon Bedrock-Ressourcen wie Eingabeaufforderungen, Wissensdatenbanken und Agenten, die den Modellaufruf verwenden.
Nachdem Sie verschiedene Foundation-Modelle mit unterschiedlichen Eingabeaufforderungen und Inferenzparametern getestet haben, können Sie Ihre Anwendung so konfigurieren, dass sie diese APIs mit Ihren gewünschten Spezifikationen aufruft.
Themen
Beeinflussen Sie die Antwortgenerierung mit Inferenzparametern
Unterstützte Regionen und Modelle für die Ausführung von Modellinferenzen
Generieren Sie Antworten in der Konsole mithilfe von Playgrounds
Senden Sie Eingabeaufforderungen und generieren Sie Antworten mithilfe der API
Verwenden Sie ein Tool, um eine Antwort auf das Amazon Bedrock-Modell abzuschließen
Verwenden Sie ein Computer-Nutzungstool, um eine Antwort auf ein Amazon Bedrock-Modell abzuschließen