As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Crie uma tarefa do AutoML para ajustar os modelos de geração de texto usando o API
Modelos de linguagem grandes (LLMs) se destacam em várias tarefas generativas, incluindo geração de texto, resumo, conclusão, resposta a perguntas e muito mais. Seu performance pode ser atribuído ao tamanho significativo e ao treinamento extensivo em diversos conjuntos de dados e várias tarefas. No entanto, domínios específicos, como serviços financeiros e de saúde, podem exigir ajustes personalizados para se adaptarem a dados e casos de uso exclusivos. Ao adaptar seu treinamento ao seu domínio específico, LLMs pode melhorar seu desempenho e fornecer resultados mais precisos para aplicações específicas.
O Autopilot oferece a capacidade de ajustar uma seleção de modelos de texto generativo pré-treinados. Em particular, o Autopilot suporta o ajuste fino baseado em instruções de uma seleção de modelos de linguagem grande de uso geral () alimentados por. LLMs JumpStart
nota
Os modelos de geração de texto que suportam o ajuste fino no piloto automático estão atualmente acessíveis exclusivamente nas regiões suportadas pelo Canvas. SageMaker Consulte a documentação do SageMaker Canvas para obter a lista completa de suas regiões suportadas.
O ajuste fino de um modelo pré-treinado requer um conjunto de dados específico de instruções claras que orientem o modelo sobre como gerar resultados ou se comportar para essa tarefa. O modelo aprende com o conjunto de dados, ajustando seus parâmetros de acordo com as instruções fornecidas. O ajuste fino baseado em instruções envolve o uso de exemplos rotulados formatados como pares de pronto-resposta e formulados como instruções. Para obter mais informações sobre o ajuste fino, consulte Ajustar um modelo básico.
nota
Tarefas como classificação de texto e imagem, previsão de séries temporais e ajuste fino de grandes modelos de linguagem estão disponíveis exclusivamente por meio da versão 2 do AutoML. REST API Se sua linguagem preferida for Python, você pode se referir diretamente ao AWS SDK for Python (Boto3) MLV2
Os usuários que preferem a conveniência de uma interface de usuário podem usar o Amazon SageMaker Canvas para acessar modelos pré-treinados e modelos básicos de IA generativos, ou criar modelos personalizados para textos específicos, classificação de imagens, necessidades de previsão ou IA generativa.
Para criar um experimento de piloto automático programaticamente para ajustar umLLM, você pode chamá-lo CreateAutoMLJobV2
APIem qualquer idioma suportado pelo Amazon Autopilot ou pelo. SageMaker AWS CLI
Para obter informações sobre como essa API ação se traduz em uma função no idioma de sua escolha, consulte a seção Consulte também CreateAutoMLJobV2
e escolha umaSDK. Como exemplo, para usuários do Python, veja a sintaxe completa da solicitação de create_auto_ml_job_v2
em AWS SDK for Python (Boto3).
nota
O Autopilot ajusta grandes modelos de linguagem sem exigir que vários candidatos sejam treinados e avaliados. Em vez disso, usando seu conjunto de dados, o Autopilot ajusta diretamente seu modelo de destino para aprimorar uma métrica objetiva padrão, a perda de entropia cruzada. O ajuste fino dos modelos de linguagem no Autopilot não requer a configuração do campo AutoMLJobObjective
.
Depois de LLM ajustado, você pode avaliar seu desempenho acessando vários ROUGE pontua até o BestCandidate
ao fazer uma DescribeAutoMLJobV2
API chamada. O modelo também fornece informações sobre seu treinamento e perda de validação, bem como sobre sua perplexidade. Para obter uma lista abrangente de métricas para avaliar a qualidade do texto gerado pelos modelos ajustados, consulte Métricas para ajustar modelos de linguagem grandes no Autopilot.
Pré-requisitos
Antes de usar o piloto automático para criar um experimento de ajuste fino SageMaker, siga as seguintes etapas:
-
(Opcional) Escolha o modelo pré-treinado que você deseja ajustar.
Para ver a lista de modelos pré-treinados disponíveis para ajuste fino no Amazon SageMaker Autopilot, consulte. Modelos de linguagem de grande porte compatíveis para ajuste fino A seleção de um modelo não é obrigatória; se nenhum modelo for especificado, o Autopilot automaticamente assume como padrão o modelo Falcon7. BInstruct
-
Criar um conjunto de dados de instruções. Consulte Tipos de arquivo de conjunto de dados e formato de dados de entrada para saber mais sobre os requisitos de formato para seu conjunto de dados baseado em instruções.
-
Coloque seus conjuntos de dados em um bucket do Amazon S3.
-
Conceda acesso total ao bucket do Amazon S3 contendo seus dados de entrada para a função de SageMaker execução usada para executar seu experimento.
-
Para obter informações sobre como recuperar sua função SageMaker de execução, consulteObtenha sua função de execução.
-
Para obter informações sobre como conceder permissões à sua função de SageMaker execução para acessar um ou mais buckets específicos no Amazon S3, consulte Adicionar permissões adicionais do Amazon S3 a uma função de execução em. SageMaker Criar perfil de execução
-
-
Além disso, você deve fornecer à sua função de execução as permissões necessárias para acessar o bucket de armazenamento padrão do Amazon S3 usado pelo. JumpStart Esse acesso é necessário para armazenar e recuperar artefatos de modelo pré-treinados em. JumpStart Para conceder acesso a esse bucket do Amazon S3, você deve criar uma nova política personalizada em linha em seu perfil de execução.
Aqui está um exemplo de política que você pode usar em seu JSON editor ao configurar trabalhos de ajuste fino do AutoML em:
us-west-2
JumpStartOs nomes dos buckets seguem um padrão predeterminado que depende do Regiões da AWS. Você deve ajustar o nome do bucket adequadamente.
{ "Sid": "Statement1", "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::jumpstart-cache-prod-
us-west-2
", "arn:aws:s3:::jumpstart-cache-prod-us-west-2/*
" ] }
Feito isso, você pode usar essa função ARN de execução nas API solicitações do Autopilot.
Parâmetros necessários
Ao ligar CreateAutoMLJobV2
para criar um experimento de piloto automático para LLM ajuste fino, você deve fornecer os seguintes valores:
-
E
AutoMLJobName
para especificar o nome do seu trabalho. O nome deve ser do tipostring
e ter um comprimento mínimo de 1 caractere e um comprimento máximo de 32. -
Pelo menos um
AutoMLJobChannel
dotraining
tipo dentro doAutoMLJobInputDataConfig
. Esse canal especifica o nome do bucket do Amazon S3 onde seu conjunto de dados de ajuste fino está localizado. Você tem a opção de definir um canalvalidation
. Se nenhum canal de validação for fornecido e umValidationFraction
estiver configurado noAutoMLDataSplitConfig
, essa fração será utilizada para dividir aleatoriamente o conjunto de dados de treinamento em conjuntos de treinamento e validação. Além disso, você pode especificar o tipo de conteúdo (CSVou arquivos Parquet) para o conjunto de dados. -
Um
AutoMLProblemTypeConfig
tipoTextGenerationJobConfig
para definir as configurações do seu trabalho de treinamento.Em particular, você pode especificar o nome do modelo de base a ser ajustado no campo
BaseModelName
. Para ver a lista de modelos pré-treinados disponíveis para ajuste fino no Amazon SageMaker Autopilot, consulte. Modelos de linguagem de grande porte compatíveis para ajuste fino -
E
OutputDataConfig
para especificar o caminho de saída do Amazon S3 para armazenar os artefatos do seu trabalho do AutoML. -
A
RoleArn
para especificar ARN a função usada para acessar seus dados.
Veja a seguir um exemplo do formato de solicitação completo usado ao fazer uma API chamada CreateAutoMLJobV2
para ajustar um modelo (Falcon7BInstruct
).
{ "AutoMLJobName": "<job_name>", "AutoMLJobInputDataConfig": [ { "ChannelType": "training", "CompressionType": "None", "ContentType": "text/csv", "DataSource": { "S3DataSource": { "S3DataType": "S3Prefix", "S3Uri": "s3://<bucket_name>/<input_data>.csv" } } } ], "OutputDataConfig": { "S3OutputPath": "s3://<bucket_name>/output", "KmsKeyId": "arn:aws:kms:<region>:<account_id>:key/<key_value>" }, "RoleArn":"arn:aws:iam::<account_id>:role/<sagemaker_execution_role_name>", "AutoMLProblemTypeConfig": { "TextGenerationJobConfig": { "BaseModelName": "Falcon7BInstruct" } } }
Todos os outros parâmetros são opcionais.
Parâmetros opcionais
As seções a seguir fornecem detalhes de alguns parâmetros opcionais que você pode passar para o seu trabalho AutoML de classificação de texto.
Você pode fornecer seu próprio conjunto de dados da validação e taxa de divisão de dados personalizada, ou deixar o Autopilot dividir o conjunto de dados automaticamente.
Cada AutoMLJobChannel
objeto (consulte o parâmetro obrigatório A utoMLJobInputDataConfig) tem umChannelType
, que pode ser definido como um training
ou validation
valores que especificam como os dados devem ser usados ao criar um modelo de aprendizado de máquina.
Pelo menos uma fonte de dados deve ser fornecida e no máximo duas fontes de dados são permitidas: uma para dados de treinamento e outra para dados de validação. A forma como você divide os dados em conjuntos de dados de treinamento e validação depende se você tem uma ou duas fontes de dados.
-
Se você tiver apenas uma fonte de dados, a será
ChannelType
definida comotraining
padrão e deverá ter esse valor.-
Se o valor
ValidationFraction
emAutoMLDataSplitConfig
não estiver definido, 0,2 (20%) dos dados dessa fonte serão usados para a validação por padrão. -
Se
ValidationFraction
for definido como um valor entre 0 e 1, o conjunto de dados será dividido com base no valor especificado, em que o valor especifica a fração do conjunto de dados usada para validação.
-
-
Se você tiver duas fontes de dados, a
ChannelType
de um dos objetosAutoMLJobChannel
deverá ser definida comotraining
, o valor padrão. AChannelType
da outra fonte de dados deve ser definida comovalidation
. As duas fontes de dados devem ter o mesmo formato, CSV ou Parquet, e o mesmo esquema. Nesse caso, você não deve definir o valor para oValidationFraction
porque todos os dados de cada fonte são usados para treinamento ou validação. Definir esse valor causa um erro.
Com o Autopilot, você pode implantar automaticamente seu modelo ajustado em um endpoint. Para habilitar a implantação automática para seu modelo ajustado, inclua um ModelDeployConfig
na solicitação de trabalho do AutoML. Isso permite a implantação de seu modelo ajustado em um endpoint. SageMaker Abaixo estão as configurações disponíveis para personalização.
-
Para permitir que o Autopilot gere o nome do endpoint,
AutoGenerateEndpointName
defina comoTrue
. -
Para fornecer seu próprio nome para o endpoint, defina
AutoGenerateEndpointName to
.False
and provide a name of your choice in EndpointName
Para modelos que exigem a aceitação de um contrato de licença de usuário final antes do ajuste fino, você pode aceitar o EULA definindo o AcceptEula
atributo to True
in ModelAccessConfig
TextGenerationJobConfig
ao configurar seu. AutoMLProblemTypeConfig
Você pode otimizar o processo de aprendizado do seu modelo de geração de texto definindo valores de hiperparâmetros no TextGenerationHyperParameters
atributo de TextGenerationJobConfig
ao configurar seu. AutoMLProblemTypeConfig
O piloto automático permite a configuração de quatro hiperparâmetros comuns em todos os modelos.
-
epochCount
: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de1
até10
. -
batchSize
: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de1
até64
. -
learningRate
: Seu valor deve ser uma string contendo um valor de ponto flutuante dentro do intervalo de até.0
1
-
learningRateWarmupSteps
: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de0
até250
.
Para obter mais detalhes sobre cada hiperparâmetro, consulteHiperparâmetros para otimizar o processo de aprendizado de seus modelos de geração de texto.
O JSON exemplo a seguir mostra um TextGenerationHyperParameters
campo passado para o TextGenerationJobConfig onde todos os quatro hiperparâmetros estão configurados.
"AutoMLProblemTypeConfig": { "TextGenerationJobConfig": { "BaseModelName": "Falcon7B", "TextGenerationHyperParameters": {"epochCount":"5", "learningRate":"0.000001", "batchSize": "32", "learningRateWarmupSteps": "10"} } }