本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Anthropic Claude Text Completions API
本部分介绍结合使用 Anthropic Claude 模型和 Text Completions API 所需的推理参数和代码示例。
Anthropic Claude Text Completions API 概述
使用 Text Completions API 根据用户提供的提示生成单回合文本。例如,您可以使用 Text Completions API 为博客文章生成文本或汇总用户输入的文本。
有关为 Anthropic Claude 模型创建提示的信息,请参阅提示设计简介
支持的模型
您可以将 Text Completions API 与以下 Anthropic Claude 模型配合使用。
Anthropic Claude Instant v1.2
Anthropic Claude v2
Anthropic Claude v2.1
请求和响应
请求正文在请求的 body
字段中传递给 InvokeModel 或 InvokeModelWithResponseStream。
有关更多信息,请参阅 Anthropic Claude 文档中的 https://docs.anthropic.com/claude/reference/complete_post
代码示例
这些示例展示了如何使用按需吞吐量调用 Anthropic Claude V2 模型。要使用 Anthropic Claude 版本 2.1,请将 modelId
的值更改为 anthropic.claude-v2:1
。
import boto3 import json brt = boto3.client(service_name='bedrock-runtime') body = json.dumps({ "prompt": "\n\nHuman: explain black holes to 8th graders\n\nAssistant:", "max_tokens_to_sample": 300, "temperature": 0.1, "top_p": 0.9, }) modelId = 'anthropic.claude-v2' accept = 'application/json' contentType = 'application/json' response = brt.invoke_model(body=body, modelId=modelId, accept=accept, contentType=contentType) response_body = json.loads(response.get('body').read()) # text print(response_body.get('completion'))
以下示例展示如何在 Python 中使用提示 write an essay for living on mars in 1000 words
和 Anthropic Claude V2 模型生成流式传输文本:
import boto3 import json brt = boto3.client(service_name='bedrock-runtime') body = json.dumps({ 'prompt': '\n\nHuman: write an essay for living on mars in 1000 words\n\nAssistant:', 'max_tokens_to_sample': 4000 }) response = brt.invoke_model_with_response_stream( modelId='anthropic.claude-v2', body=body ) stream = response.get('body') if stream: for event in stream: chunk = event.get('chunk') if chunk: print(json.loads(chunk.get('bytes').decode()))