本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
支持进行微调的大型语言模型
使用 Autopilot API,用户可以微调由 Amazon 提供支持的大型语言模型 (LLMs)。 SageMaker JumpStart
注意
对于需要接受最终用户许可协议的微调模型,您必须在创建 AutoML 作业时明确声明接受 EULA。请注意,在对预训练模型进行微调后,原始模型的权重将被更改,因此在部署微调后的模型时,您无需随后接受 EULA。
有关使用 AutoML API 创建微调作业时如何接受 EULA 的信息,请参阅 使用 AutoML API 微调模型时如何设置 EULA 接受度。
您可以在下方的模型表中搜索您的JumpStart 模型 ID,然后点击来源列中的链接,找到每个模型
下表列出了您可以通过 AutoML 作业进行微调的支持的 JumpStart 模型。
JumpStart 型号 | API 请求中的 BaseModelName |
描述 |
---|---|---|
huggingface-textgeneration-dolly-v2-3b-bf16 | Dolly3B |
Dolly 3B 是基于 pythia-2.8b |
huggingface-textgeneration-dolly-v2-7b-bf16 | Dolly7B |
Dolly 7B 是基于 pythia-6.9b |
huggingface-textgeneration-dolly-v2-12b-bf16 | Dolly12B |
Dolly 12B 是基于 pythia-12b |
huggingface-llm-falcon-7b-bf16 | Falcon7B |
Falcon 7B 是一个 70 亿参数的因果大型语言模型,以 15000 亿词库为基础进行训练,并通过精心策划的语料库进行增强。Falcon-7B 仅在英语和法语数据基础上进行了训练,无法适当地推广到其他语言。由于该模型是在大量网络数据的基础上训练出来的,因此带有网上常见的刻板印象和偏见。 |
huggingface-llm-falcon-7b-instruct-bf16 | Falcon7BInstruct |
Falcon 7B Instruct 是一个基于 Falcon 7B 的 70 亿参数因果大型语言模型,并在 2.5 亿词组的聊天/指令混合数据集上进行了微调。Falcon 7B Instruct 主要是在英语数据上进行训练的,并不能适当地推广到其他语言。此外,由于它是在具有代表性的大规模网络语料库中训练出来的,因此带有网上常见的刻板印象和偏见。 |
huggingface-llm-falcon-40b-bf16 | Falcon40B |
Falcon 40B 是拥有 400 亿个参数的因果大型语言模型,以 1 万亿个词库为基础进行训练,并通过精心策划的语料库进行增强。它主要接受英语、德语、西班牙语和法语训练,在意大利语、葡萄牙语、波兰语、荷兰语、罗马尼亚语、捷克语和瑞典语方面能力有限。它不能适当地推广到其他语言。此外,由于它是在具有代表性的大规模网络语料库中训练出来的,因此带有网上常见的刻板印象和偏见。 |
huggingface-llm-falcon-40b-instruct-bf16 | Falcon40BInstruct |
Falcon 40B Instruct 是一个基于 Falcon40B 的 400 亿参数因果大型语言模型,并在 Baize 的混合基础上进行了微调。它主要是在英语和法语数据上进行训练的,并不能适当地推广到其他语言。此外,由于它是在具有代表性的大规模网络语料库中训练出来的,因此带有网上常见的刻板印象和偏见。 |
huggingface-text2text-flan-t5-large | FlanT5L |
这些区域有:Flan-T5 |
huggingface-text2text-flan-t5-xl | FlanT5XL |
这些区域有:Flan-T5 |
huggingface-text2text-flan-t5-xxll | FlanT5XXL |
这些区域有:Flan-T5 |
meta-textgeneration-llama-2-7b | Llama2-7B |
Llama 2 是一组经过预训练和微调的文本生成模型,参数规模从 70 亿到 700 亿不等。Llama2-7B 是用于英语的 70 亿参数模型,可适用于各种自然语言生成任务。 |
meta-textgeneration-llama-2-7b-f | Llama2-7BChat |
Llama 2 是一组经过预训练和微调的文本生成模型,参数规模从 70 亿到 700 亿不等。Llama2-7B 是 70 亿参数聊天模型,针对对话使用场景进行了优化。 |
meta-textgeneration-llama-2-13b | Llama2-13B |
Llama 2 是一组经过预训练和微调的文本生成模型,参数规模从 70 亿到 700 亿不等。Llama2-13B 是用于英语的 130 亿参数模型,适用于各种自然语言生成任务。 |
meta-textgeneration-llama-2-13b-f | Llama2-13BChat |
Llama 2 是一组经过预训练和微调的文本生成模型,参数规模从 70 亿到 700 亿不等。Llama2-13B 是 130 亿参数聊天模型,针对对话使用场景进行了优化。 |
huggingface-llm-mistral-7b | Mistral7B |
Mistral 7B 是一个 70 亿参数代码和通用英语文本生成模型。它可用于各种使用场景,包括文本摘要、分类、文本补全或代码补全。 |
huggingface-llm-mistral-7b-instruct | Mistral7BInstruct |
Mistral 7B Instruct 是 Mistral 7B 的微调版本,适用于对话使用场景。它是利用各种公开的英语会话数据集专门设计的。 |
huggingface-textgeneration1-mpt-7b-bf16 | MPT7B |
MPT 7B 是一个具有 67 亿个参数的解码器式转换器大型语言模型,在 1 万亿个英语文本和代码词块上从头开始预训练。它可以处理较长的上下文。 |
huggingface-textgeneration1-mpt-7b-instruct-bf16 | MPT7BInstruct |
MPT 7B Instruct 是一种针对任务的简短指导模式。它是通过在 databricks-dolly-15k |