Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Questa sezione fornisce parametri di inferenza ed esempi di codice per l'utilizzo Anthropic Claude modelli con l'API Text Completions.
Argomenti
Anthropic Claude Panoramica dell'API Text Completions
Utilizza l'API Text Completion per la generazione di testo a turno singolo da un prompt fornito dall'utente. Ad esempio, puoi utilizzare l'API Text Completion per generare testo per un post di blog o per riepilogare il testo immesso da un utente.
Per informazioni sulla creazione di prompt per Anthropic Claude modelli, vedere Introduzione alla progettazione dei prompt
Modelli supportati
Puoi utilizzare l'API Text Completions con quanto segue Anthropic Claude modelli.
Anthropic Claude Instant v1.2
Anthropic Claude v2
Anthropic Claude v2.1
Richiesta e risposta
Il corpo della richiesta viene passato nel body
campo di una richiesta a InvokeModelo InvokeModelWithResponseStream.
Per ulteriori informazioni, consulta https://docs.anthropic.com/claude/reference/complete_post
Anthropic Claude ha i seguenti parametri di inferenza per una chiamata di inferenza di Text Completion.
{
"prompt": "\n\nHuman:<prompt>
\n\nAssistant:",
"temperature": float,
"top_p": float,
"top_k": int,
"max_tokens_to_sample": int,
"stop_sequences": [string]
}
I seguenti sono parametri obbligatori.
-
prompt — (Obbligatorio) Il prompt che vuoi che Claude completi. Per una corretta generazione di risposte, è necessario formattare il prompt utilizzando turni alternati
\n\nHuman:
e conversazionali.\n\nAssistant:
Per esempio:"\n\nHuman: {userQuestion}\n\nAssistant:"
Per ulteriori informazioni, vedere Convalida rapida nella
Anthropic Claude documentazione. -
max_tokens_to_sample — (Obbligatorio) Il numero massimo di token da generare prima dell'interruzione. Consigliamo un limite di 4.000 token per prestazioni ottimali.
Nota che Anthropic Claude i modelli potrebbero smettere di generare token prima di raggiungere il valore di
max_tokens_to_sample
. Diverso Anthropic Claude i modelli hanno valori massimi diversi per questo parametro. Per ulteriori informazioni, vedete Confronto tra modellinel Anthropic Claude documentazione. Predefinita Minimo Massimo 200
0
4096
I seguenti sono parametri opzionali.
-
stop_sequences — (Facoltativo) Sequenze che causeranno l'interruzione della generazione del modello.
Anthropic Claude i modelli si
"\n\nHuman:"
accendono e in futuro potrebbero includere sequenze di stop integrate aggiuntive. Utilizzate il parametro distop_sequences
inferenza per includere stringhe aggiuntive che segnaleranno al modello di interrompere la generazione di testo. -
temperatura — (Facoltativo) La quantità di casualità iniettata nella risposta. Utilizzate un valore più vicino a 0 per le attività analitiche/a scelta multipla e un valore più vicino a 1 per le attività creative e generative.
Predefinita Minimo Massimo 1
0
1
-
top_p — (Facoltativo) Usa il campionamento del nucleo.
Nel campionamento del nucleo, Anthropic Claude calcola la distribuzione cumulativa di tutte le opzioni per ogni token successivo in ordine di probabilità decrescente e la interrompe quando raggiunge una particolare probabilità specificata da.
top_p
È necessario modificare una delle duetemperature
otop_p
non entrambe.Predefinita Minimo Massimo 1
0
1
-
top_k — (Facoltativo) Campiona solo le prime K opzioni per ogni token successivo.
Utilizza
top_k
per rimuovere le risposte a bassa probabilità a coda lunga.Predefinita Minimo Massimo 250
0
500
esempio di codice
Questi esempi mostrano come chiamare Anthropic Claude Modello V2 con velocità effettiva su richiesta. Per utilizzare Anthropic Claude versione 2.1, modifica il valore di modelId
to. anthropic.claude-v2:1
import boto3
import json
brt = boto3.client(service_name='bedrock-runtime')
body = json.dumps({
"prompt": "\n\nHuman: explain black holes to 8th graders\n\nAssistant:",
"max_tokens_to_sample": 300,
"temperature": 0.1,
"top_p": 0.9,
})
modelId = 'anthropic.claude-v2'
accept = 'application/json'
contentType = 'application/json'
response = brt.invoke_model(body=body, modelId=modelId, accept=accept, contentType=contentType)
response_body = json.loads(response.get('body').read())
# text
print(response_body.get('completion'))
L'esempio seguente mostra come generare testo in streaming con Python utilizzando il prompt write an essay for living on mars in 1000
words
e il modello Anthropic Claude V2:
import boto3
import json
brt = boto3.client(service_name='bedrock-runtime')
body = json.dumps({
'prompt': '\n\nHuman: write an essay for living on mars in 1000 words\n\nAssistant:',
'max_tokens_to_sample': 4000
})
response = brt.invoke_model_with_response_stream(
modelId='anthropic.claude-v2',
body=body
)
stream = response.get('body')
if stream:
for event in stream:
chunk = event.get('chunk')
if chunk:
print(json.loads(chunk.get('bytes').decode()))