Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Das Tool Mistral AI Mit der Chat-Completion-API können Konversationsanwendungen erstellt werden.
Tipp
Sie können das Mistral AI Chat-Abschluss-API mit den grundlegenden Inferenzoperationen (InvokeModeloder InvokeModelWithResponseStream). Wir empfehlen jedoch, dass Sie die Converse API zur Implementierung von Nachrichten in Ihrer Anwendung. Das Tool Converse Die API bietet einen einheitlichen Satz von Parametern, die für alle Modelle funktionieren, die Nachrichten unterstützen. Weitere Informationen finden Sie unter Führen Sie ein Gespräch mit dem Converse API-Operationen.
Mistral AI Modelle sind unter der Apache 2.0-Lizenz
Unterstützte Modelle
Sie können Folgendes verwenden Mistral AI Modelle.
Mistral Large
Sie benötigen die Modell-ID für das Modell, das Sie verwenden möchten. Informationen zur Modell-ID finden Sie unterUnterstützte Basismodelle in Amazon Bedrock.
Anforderung und Antwort
Das Tool Mistral AI Modelle haben die folgenden Inferenzparameter.
{
"messages": [
{
"role": "system"|"user"|"assistant",
"content": str
},
{
"role": "assistant",
"content": "",
"tool_calls": [
{
"id": str,
"function": {
"name": str,
"arguments": str
}
}
]
},
{
"role": "tool",
"tool_call_id": str,
"content": str
}
],
"tools": [
{
"type": "function",
"function": {
"name": str,
"description": str,
"parameters": dict
}
}
],
"tool_choice": "auto"|"any"|"none",
"max_tokens": int,
"top_p": float,
"temperature": float
}
Die folgenden Parameter sind erforderlich.
-
messages — (Erforderlich) Die Nachrichten, die Sie an das Modell übergeben möchten.
-
Rolle — Die Rolle für die Nachricht. Gültige Werte für sind:
System — Legt das Verhalten und den Kontext für das Modell in der Konversation fest.
user — Die Benutzernachricht, die an das Modell gesendet werden soll.
assistant — Die Antwort des Modells.
-
Inhalt — Der Inhalt der Nachricht.
[ { "role": "user", "content": "What is the most popular song on WZPZ?" } ]
Verwenden Sie JSON mit den folgenden Feldern, um ein Werkzeugergebnis zu übergeben.
-
role — Die Rolle für die Nachricht. Der Wert muss sein
tool
. -
tool_call_id — Die ID der Werkzeuganforderung. Sie erhalten die ID aus den
tool_calls
Feldern in der Antwort der vorherigen Anfrage. -
Inhalt — Das Ergebnis des Tools.
Das folgende Beispiel ist das Ergebnis eines Tools, das den beliebtesten Song eines Radiosenders ermittelt.
{ "role": "tool", "tool_call_id": "v6RMMiRlT7ygYkT4uULjtg", "content": "{\"song\": \"Elemental Hotel\", \"artist\": \"8 Storey Hike\"}" }
-
Die folgenden Parameter sind optional.
-
Werkzeuge — Definitionen von Werkzeugen, die das Modell verwenden kann.
Wenn Sie
tools
in Ihrer Anfrage angeben, gibt das Modell möglicherweise eintool_calls
Feld in der Nachricht zurück, das die Verwendung dieser Tools durch das Modell darstellt. Sie können diese Werkzeuge dann mit der vom Modell generierten Werkzeugeingabe ausführen und anschließend optional Ergebnisse mithilfe vontool_result
Inhaltsblöcken an das Modell zurückgeben.Das folgende Beispiel bezieht sich auf ein Tool, das die beliebtesten Songs eines Radiosenders abruft.
[ { "type": "function", "function": { "name": "top_song", "description": "Get the most popular song played on a radio station.", "parameters": { "type": "object", "properties": { "sign": { "type": "string", "description": "The call sign for the radio station for which you want the most popular song. Example calls signs are WZPZ and WKRP." } }, "required": [ "sign" ] } } } ]
-
tool_choice — Gibt an, wie Funktionen aufgerufen werden. Wenn diese Option aktiviert
none
ist, ruft das Modell keine Funktion auf und generiert stattdessen eine Meldung. Wenn diese Option aktiviert ist, kannauto
das Modell wählen, ob entweder eine Nachricht generiert oder eine Funktion aufgerufen werden soll. Wenn diese Option aktiviert ist, wirdany
das Modell gezwungen, eine Funktion aufzurufen.
-
max_tokens — Geben Sie die maximale Anzahl von Tokens an, die in der generierten Antwort verwendet werden sollen. Das Modell kürzt die Antwort, sobald der generierte Text den Wert
max_tokens
überschreitet.Standard Minimum Maximum Mistral Large — 8.192
1
Mistral Large — 8.192
-
Temperatur — Steuert die Zufälligkeit der vom Modell getroffenen Vorhersagen. Weitere Informationen finden Sie unter Beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.
Standard Minimum Maximum Mistral Large — 0,7
0
1
-
top_p — Steuert die Textvielfalt, die das Modell generiert, indem der Prozentsatz der wahrscheinlichsten Kandidaten festgelegt wird, die das Modell für das nächste Token berücksichtigt. Weitere Informationen finden Sie unter Beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.
Standard Minimum Maximum Mistral Large — 1
0
1