Crie uma tarefa do AutoML para ajustar os modelos de geração de texto usando o API - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Crie uma tarefa do AutoML para ajustar os modelos de geração de texto usando o API

Modelos de linguagem grandes (LLMs) se destacam em várias tarefas generativas, incluindo geração de texto, resumo, conclusão, resposta a perguntas e muito mais. Seu performance pode ser atribuído ao tamanho significativo e ao treinamento extensivo em diversos conjuntos de dados e várias tarefas. No entanto, domínios específicos, como serviços financeiros e de saúde, podem exigir ajustes personalizados para se adaptarem a dados e casos de uso exclusivos. Ao adaptar seu treinamento ao seu domínio específico, LLMs pode melhorar seu desempenho e fornecer resultados mais precisos para aplicações específicas.

O Autopilot oferece a capacidade de ajustar uma seleção de modelos de texto generativo pré-treinados. Em particular, o Autopilot suporta o ajuste fino baseado em instruções de uma seleção de modelos de linguagem grande de uso geral () alimentados por. LLMs JumpStart

nota

Os modelos de geração de texto que suportam o ajuste fino no piloto automático estão atualmente acessíveis exclusivamente nas regiões suportadas pelo Canvas. SageMaker Consulte a documentação do SageMaker Canvas para obter a lista completa de suas regiões suportadas.

O ajuste fino de um modelo pré-treinado requer um conjunto de dados específico de instruções claras que orientem o modelo sobre como gerar resultados ou se comportar para essa tarefa. O modelo aprende com o conjunto de dados, ajustando seus parâmetros de acordo com as instruções fornecidas. O ajuste fino baseado em instruções envolve o uso de exemplos rotulados formatados como pares de pronto-resposta e formulados como instruções. Para obter mais informações sobre o ajuste fino, consulte Ajustar um modelo básico.

As diretrizes a seguir descrevem o processo de criação de um trabalho do Amazon SageMaker Autopilot como um experimento piloto para ajustar a geração LLMs de texto usando a Referência. SageMaker API

nota

Tarefas como classificação de texto e imagem, previsão de séries temporais e ajuste fino de grandes modelos de linguagem estão disponíveis exclusivamente por meio da versão 2 do AutoML. REST API Se sua linguagem preferida for Python, você pode se referir diretamente ao AWS SDK for Python (Boto3) MLV2objeto Auto do Amazon Python SageMaker . SDK

Os usuários que preferem a conveniência de uma interface de usuário podem usar o Amazon SageMaker Canvas para acessar modelos pré-treinados e modelos básicos de IA generativos, ou criar modelos personalizados para textos específicos, classificação de imagens, necessidades de previsão ou IA generativa.

Para criar um experimento de piloto automático programaticamente para ajustar umLLM, você pode chamá-lo CreateAutoMLJobV2APIem qualquer idioma suportado pelo Amazon Autopilot ou pelo. SageMaker AWS CLI

Para obter informações sobre como essa API ação se traduz em uma função no idioma de sua escolha, consulte a seção Consulte também CreateAutoMLJobV2 e escolha umaSDK. Como exemplo, para usuários do Python, veja a sintaxe completa da solicitação de create_auto_ml_job_v2 em AWS SDK for Python (Boto3).

nota

O Autopilot ajusta grandes modelos de linguagem sem exigir que vários candidatos sejam treinados e avaliados. Em vez disso, usando seu conjunto de dados, o Autopilot ajusta diretamente seu modelo de destino para aprimorar uma métrica objetiva padrão, a perda de entropia cruzada. O ajuste fino dos modelos de linguagem no Autopilot não requer a configuração do campo AutoMLJobObjective.

Depois de LLM ajustado, você pode avaliar seu desempenho acessando vários ROUGE pontua até o BestCandidate ao fazer uma DescribeAutoMLJobV2 API chamada. O modelo também fornece informações sobre seu treinamento e perda de validação, bem como sobre sua perplexidade. Para obter uma lista abrangente de métricas para avaliar a qualidade do texto gerado pelos modelos ajustados, consulte Métricas para ajustar modelos de linguagem grandes no Autopilot.

Pré-requisitos

Antes de usar o piloto automático para criar um experimento de ajuste fino SageMaker, siga as seguintes etapas:

  • (Opcional) Escolha o modelo pré-treinado que você deseja ajustar.

    Para ver a lista de modelos pré-treinados disponíveis para ajuste fino no Amazon SageMaker Autopilot, consulte. Modelos de linguagem de grande porte compatíveis para ajuste fino A seleção de um modelo não é obrigatória; se nenhum modelo for especificado, o Autopilot automaticamente assume como padrão o modelo Falcon7. BInstruct

  • Criar um conjunto de dados de instruções. Consulte Tipos de arquivo de conjunto de dados e formato de dados de entrada para saber mais sobre os requisitos de formato para seu conjunto de dados baseado em instruções.

  • Coloque seus conjuntos de dados em um bucket do Amazon S3.

  • Conceda acesso total ao bucket do Amazon S3 contendo seus dados de entrada para a função de SageMaker execução usada para executar seu experimento.

    • Para obter informações sobre como recuperar sua função SageMaker de execução, consulteObtenha sua função de execução.

    • Para obter informações sobre como conceder permissões à sua função de SageMaker execução para acessar um ou mais buckets específicos no Amazon S3, consulte Adicionar permissões adicionais do Amazon S3 a uma função de execução em. SageMaker Criar perfil de execução

  • Além disso, você deve fornecer à sua função de execução as permissões necessárias para acessar o bucket de armazenamento padrão do Amazon S3 usado pelo. JumpStart Esse acesso é necessário para armazenar e recuperar artefatos de modelo pré-treinados em. JumpStart Para conceder acesso a esse bucket do Amazon S3, você deve criar uma nova política personalizada em linha em seu perfil de execução.

    Aqui está um exemplo de política que você pode usar em seu JSON editor ao configurar trabalhos de ajuste fino do AutoML em: us-west-2

    JumpStartOs nomes dos buckets seguem um padrão predeterminado que depende do Regiões da AWS. Você deve ajustar o nome do bucket adequadamente.

    { "Sid": "Statement1", "Effect": "Allow", "Action": [ "s3:GetObject", "s3:PutObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::jumpstart-cache-prod-us-west-2", "arn:aws:s3:::jumpstart-cache-prod-us-west-2/*" ] }

Feito isso, você pode usar essa função ARN de execução nas API solicitações do Autopilot.

Parâmetros necessários

Ao ligar CreateAutoMLJobV2 para criar um experimento de piloto automático para LLM ajuste fino, você deve fornecer os seguintes valores:

  • E AutoMLJobName para especificar o nome do seu trabalho. O nome deve ser do tipo string e ter um comprimento mínimo de 1 caractere e um comprimento máximo de 32.

  • Pelo menos um AutoMLJobChannel do training tipo dentro do AutoMLJobInputDataConfig. Esse canal especifica o nome do bucket do Amazon S3 onde seu conjunto de dados de ajuste fino está localizado. Você tem a opção de definir um canal validation. Se nenhum canal de validação for fornecido e um ValidationFraction estiver configurado no AutoMLDataSplitConfig, essa fração será utilizada para dividir aleatoriamente o conjunto de dados de treinamento em conjuntos de treinamento e validação. Além disso, você pode especificar o tipo de conteúdo (CSVou arquivos Parquet) para o conjunto de dados.

  • Um AutoMLProblemTypeConfig tipo TextGenerationJobConfig para definir as configurações do seu trabalho de treinamento.

    Em particular, você pode especificar o nome do modelo de base a ser ajustado no campo BaseModelName. Para ver a lista de modelos pré-treinados disponíveis para ajuste fino no Amazon SageMaker Autopilot, consulte. Modelos de linguagem de grande porte compatíveis para ajuste fino

  • E OutputDataConfig para especificar o caminho de saída do Amazon S3 para armazenar os artefatos do seu trabalho do AutoML.

  • A RoleArn para especificar ARN a função usada para acessar seus dados.

Veja a seguir um exemplo do formato de solicitação completo usado ao fazer uma API chamada CreateAutoMLJobV2 para ajustar um modelo (Falcon7BInstruct).

{ "AutoMLJobName": "<job_name>", "AutoMLJobInputDataConfig": [ { "ChannelType": "training", "CompressionType": "None", "ContentType": "text/csv", "DataSource": { "S3DataSource": { "S3DataType": "S3Prefix", "S3Uri": "s3://<bucket_name>/<input_data>.csv" } } } ], "OutputDataConfig": { "S3OutputPath": "s3://<bucket_name>/output", "KmsKeyId": "arn:aws:kms:<region>:<account_id>:key/<key_value>" }, "RoleArn":"arn:aws:iam::<account_id>:role/<sagemaker_execution_role_name>", "AutoMLProblemTypeConfig": { "TextGenerationJobConfig": { "BaseModelName": "Falcon7BInstruct" } } }

Todos os outros parâmetros são opcionais.

Parâmetros opcionais

As seções a seguir fornecem detalhes de alguns parâmetros opcionais que você pode passar para o seu trabalho AutoML de classificação de texto.

Você pode fornecer seu próprio conjunto de dados da validação e taxa de divisão de dados personalizada, ou deixar o Autopilot dividir o conjunto de dados automaticamente.

Cada AutoMLJobChannelobjeto (consulte o parâmetro obrigatório A utoMLJobInputDataConfig) tem umChannelType, que pode ser definido como um training ou validation valores que especificam como os dados devem ser usados ao criar um modelo de aprendizado de máquina.

Pelo menos uma fonte de dados deve ser fornecida e no máximo duas fontes de dados são permitidas: uma para dados de treinamento e outra para dados de validação. A forma como você divide os dados em conjuntos de dados de treinamento e validação depende se você tem uma ou duas fontes de dados.

  • Se você tiver apenas uma fonte de dados, a será ChannelType definida como training padrão e deverá ter esse valor.

    • Se o valor ValidationFraction em AutoMLDataSplitConfig não estiver definido, 0,2 (20%) dos dados dessa fonte serão usados para a validação por padrão.

    • Se ValidationFraction for definido como um valor entre 0 e 1, o conjunto de dados será dividido com base no valor especificado, em que o valor especifica a fração do conjunto de dados usada para validação.

  • Se você tiver duas fontes de dados, a ChannelType de um dos objetos AutoMLJobChannel deverá ser definida como training, o valor padrão. A ChannelType da outra fonte de dados deve ser definida como validation. As duas fontes de dados devem ter o mesmo formato, CSV ou Parquet, e o mesmo esquema. Nesse caso, você não deve definir o valor para o ValidationFraction porque todos os dados de cada fonte são usados para treinamento ou validação. Definir esse valor causa um erro.

Com o Autopilot, você pode implantar automaticamente seu modelo ajustado em um endpoint. Para habilitar a implantação automática para seu modelo ajustado, inclua um ModelDeployConfig na solicitação de trabalho do AutoML. Isso permite a implantação de seu modelo ajustado em um endpoint. SageMaker Abaixo estão as configurações disponíveis para personalização.

Para modelos que exigem a aceitação de um contrato de licença de usuário final antes do ajuste fino, você pode aceitar o EULA definindo o AcceptEula atributo to True in ModelAccessConfig TextGenerationJobConfig ao configurar seu. AutoMLProblemTypeConfig

Você pode otimizar o processo de aprendizado do seu modelo de geração de texto definindo valores de hiperparâmetros no TextGenerationHyperParameters atributo de TextGenerationJobConfig ao configurar seu. AutoMLProblemTypeConfig

O piloto automático permite a configuração de quatro hiperparâmetros comuns em todos os modelos.

  • epochCount: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de 1 até10.

  • batchSize: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de 1 até64.

  • learningRate: Seu valor deve ser uma string contendo um valor de ponto flutuante dentro do intervalo de até. 0 1

  • learningRateWarmupSteps: Seu valor deve ser uma string contendo um valor inteiro dentro do intervalo de 0 até250.

Para obter mais detalhes sobre cada hiperparâmetro, consulteHiperparâmetros para otimizar o processo de aprendizado de seus modelos de geração de texto.

O JSON exemplo a seguir mostra um TextGenerationHyperParameters campo passado para o TextGenerationJobConfig onde todos os quatro hiperparâmetros estão configurados.

"AutoMLProblemTypeConfig": { "TextGenerationJobConfig": { "BaseModelName": "Falcon7B", "TextGenerationHyperParameters": {"epochCount":"5", "learningRate":"0.000001", "batchSize": "32", "learningRateWarmupSteps": "10"} } }