-
chat_history — Eine Liste früherer Nachrichten zwischen dem Benutzer und dem Modell, die dem Modell einen Konversationskontext für die Beantwortung der Nachricht des Benutzers geben soll.
Die folgenden Felder sind Pflichtfelder.
Das Folgende ist ein Beispiel JSON für das chat_history
Feld
"chat_history": [
{"role": "USER", "message": "Who discovered gravity?"},
{"role": "CHATBOT", "message": "The man who is widely credited with discovering gravity is Sir Isaac Newton"}
]
-
Dokumente — Eine Liste von Texten, die das Modell zitieren kann, um eine genauere Antwort zu erhalten. Jedes Dokument ist ein Wörterbuch mit Zeichenketten. Die daraus resultierende Generation umfasst Zitate, die auf einige dieser Dokumente verweisen. Wir empfehlen, die Gesamtzahl der Wörter der Zeichenketten im Wörterbuch auf weniger als 300 Wörter zu beschränken. Optional kann ein _excludes
Feld (eine Reihe von Zeichenketten) angegeben werden, um zu verhindern, dass einige Schlüssel-Wert-Paare dem Modell angezeigt werden. Weitere Informationen finden Sie in der Anleitung zum Dokumentmodus im Cohere -Dokumentation.
Das Folgende ist ein Beispiel JSON für das documents
Feld.
"documents": [
{"title": "Tall penguins", "snippet": "Emperor penguins are the tallest."},
{"title": "Penguin habitats", "snippet": "Emperor penguins only live in Antarctica."}
]
-
search_queries_only — Die Standardeinstellung ist. false
Wanntrue
, die Antwort enthält nur eine Liste generierter Suchanfragen, es findet jedoch keine Suche statt und es wird keine Antwort des Modells an die des Benutzers generiert. message
-
Präambel — Setzt die Standardpräambel für die Generierung von Suchanfragen außer Kraft. Hat keinen Einfluss auf die Generationen der Toolnutzung.
-
max_tokens — Die maximale Anzahl von Token, die das Modell als Teil der Antwort generieren sollte. Beachten Sie, dass die Festlegung eines niedrigen Werts zu unvollständigen Generierungen führen kann. Die Einstellung max_tokens
kann zu unvollständigen oder gar keinen Generierungen führen, wenn sie zusammen mit den documents
Feldern tools
oder verwendet wird.
-
Temperatur — Verwenden Sie einen niedrigeren Wert, um die Zufälligkeit der Antwortvariablen zu verringern. Die Zufälligkeit kann weiter maximiert werden, indem der Wert des Parameters erhöht wird. p
Standard |
Minimum |
Maximum |
0.3
|
0
|
1
|
-
p — Top P. Verwenden Sie einen niedrigeren Wert, um weniger wahrscheinliche Optionen zu ignorieren.
Standard |
Minimum |
Maximum |
0.75
|
0.01
|
0.99
|
-
k — Top K. Geben Sie die Anzahl der Token-Optionen an, die das Modell zur Generierung des nächsten Tokens verwendet.
Standard |
Minimum |
Maximum |
0
|
0
|
500
|
-
prompt_truncation — Die Standardeinstellung ist. OFF
Legt fest, wie die Eingabeaufforderung aufgebaut ist. Bei prompt_truncation
Einstellung auf documents
werden einige Elemente von chat_history
und gelöschtAUTO_PRESERVE_ORDER
, um eine Eingabeaufforderung zu erstellen, die innerhalb der Kontext-Längenbeschränkung des Modells liegt. Während dieses Vorgangs werden die Reihenfolge der Dokumente und der Chat-Verlauf beibehalten. Wenn prompt_truncation
`auf gesetzt OFF
ist, werden keine Elemente gelöscht.
-
frequency_penalty — Wird verwendet, um die Wiederholbarkeit generierter Token zu reduzieren. Je höher der Wert, desto stärker wird eine Strafe auf zuvor vorhandene Token angewendet, und zwar proportional dazu, wie oft sie bereits in der Eingabeaufforderung oder bei der vorherigen Generierung erschienen sind.
Standard |
Minimum |
Maximum |
0
|
0
|
1
|
-
presence_penalty — Wird verwendet, um die Wiederholbarkeit generierter Token zu reduzieren. Ähnlich wiefrequency_penalty
, mit dem Unterschied, dass diese Strafe gleichmäßig auf alle Tokens angewendet wird, die bereits erschienen sind, unabhängig von ihrer genauen Häufigkeit.
Standard |
Minimum |
Maximum |
0
|
0
|
1
|
-
seed — Falls angegeben, bemüht sich das Backend nach besten Kräften, Tokens deterministisch zu testen, sodass wiederholte Anfragen mit demselben Startwert und denselben Parametern dasselbe Ergebnis liefern sollten. Determinismus kann jedoch nicht vollständig garantiert werden.
-
return_prompt — Geben Sie true
an, dass die vollständige Aufforderung zurückgegeben werden soll, die an das Modell gesendet wurde. Der Standardwert ist false
. In der Antwort die Eingabeaufforderung im Feld. prompt
-
Tools — Eine Liste verfügbarer Tools (Funktionen), deren Aufruf das Modell möglicherweise vorschlägt, bevor eine Textantwort generiert wird. Wenn übergeben tools
wird (ohnetool_results
), wird das text
Feld in der Antwort ""
und das tool_calls
Feld in der Antwort wird mit einer Liste von Toolaufrufen gefüllt, die getätigt werden müssen. Wenn keine Aufrufe getätigt werden müssen, ist das tool_calls
Array leer.
Weitere Informationen finden Sie unter Verwendung von Tools im Cohere -Dokumentation.
Das Folgende ist ein Beispiel JSON für das tools
Feld.
[
{
"name": "top_song",
"description": "Get the most popular song played on a radio station.",
"parameter_definitions": {
"sign": {
"description": "The call sign for the radio station for which you want the most popular song. Example calls signs are WZPZ and WKRP.",
"type": "str",
"required": true
}
}
}
]
Weitere Informationen finden Sie unter Verwendung eines Tools in einem Schritt (Funktionsaufruf) im Cohere -Dokumentation.
-
tools_results — Eine Liste der Ergebnisse des Aufrufs von Tools, die vom Modell in der vorherigen Chatrunde empfohlen wurden. Die Ergebnisse werden verwendet, um eine Textantwort zu erstellen, und in Quellenangaben wird auf sie verwiesen. Bei der Verwendung tool_results
tools
muss es ebenfalls übergeben werden. Jedes tool_result
enthält Informationen darüber, wie es aufgerufen wurde, sowie eine Liste von Ausgaben in Form von Wörterbüchern. Die einzigartige, feinkörnige Zitierlogik von Cohere erfordert, dass es sich bei der Ausgabe um eine Liste handelt. Falls es sich bei der Ausgabe beispielsweise nur um ein Element handelt, sollten Sie es trotzdem in eine Liste einbinden. {"status": 200}
Weitere Informationen finden Sie unter Verwendung von Tools im Cohere -Dokumentation.
Das Folgende ist ein Beispiel JSON für das tools_results
Feld.
[
{
"call": {
"name": "top_song",
"parameters": {
"sign": "WZPZ"
}
},
"outputs": [
{
"song": "Elemental Hotel"
}
]
}
]
-
stop_sequences — Eine Liste von Stoppsequenzen. Nachdem eine Stoppsequenz erkannt wurde, beendet das Modell die Generierung weiterer Token.
-
raw_prompting — Geben Sie antrue
, dass die Daten des Benutzers ohne Vorverarbeitung message
an das Modell gesendet werden sollen, andernfalls falsch.