As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Hiperparâmetros de Object2Vec
Na solicitação CreateTrainingJob
, é especificado o algoritmo de treinamento. Você também pode especificar hiperparâmetros específicos do algoritmo como mapas. string-to-string A tabela a seguir lista os hiperparâmetros do algoritmo de treinamento do Object2Vec.
Nome do parâmetro | Descrição |
---|---|
enc0_max_seq_len |
O tamanho máximo da sequência do codificador enc0. Obrigatório Valores válidos: 1 ≤ inteiro ≤ 5000 |
enc0_vocab_size |
O tamanho do vocabulário de tokens enc0. Obrigatório Valores válidos: 2 ≤ inteiro ≤ 3000000 |
bucket_width |
A diferença permitida entre o tamanho da sequência de dados quando a geração de buckets é habilitada. Para habilitar buckets, especifique um valor diferente de zero para esse parâmetro. Opcional Valores válidos: 0 ≤ inteiro ≤ 100 Valor padrão: 0 (sem geração de buckets) |
comparator_list |
Uma lista usada para personalizar a maneira como dois envios são comparados. A camada de operador do comparador Object2Vec usa as codificações de ambos os codificadores como entradas e saídas de um único vetor. Este vetor é uma concatenação de subvetores. Os valores da cadeia de caracteres transmitidas para a Opcional Valores válidos: uma string que contém qualquer combinação dos nomes dos três operadores binários:
Valor padrão: |
dropout |
A probabilidade de abandono para camadas de rede. O abandono é uma forma de regularização usada em redes neurais que reduz o sobreajuste ao remover neurônios codependentes. Opcional Valores válidos: 0,0 ≤ flutuante ≤ 1,0 Valor padrão: 0.0 |
early_stopping_patience |
O número de epochs consecutivos sem melhoria permitida antes que a interrupção precoce seja aplicada. A melhoria é definida pelo hiperparâmetro Opcional Valores válidos: 1 ≤ inteiro ≤ 5 Valor padrão: 3 |
early_stopping_tolerance |
A redução na função de perda que um algoritmo deve alcançar entre epochs consecutivos para evitar a interrupção precoce após o número de epochs consecutivos especificado no hiperparâmetro Opcional Valores válidos: 0,000001 ≤ flutuante ≤ 0,1 Valor padrão: 0,01 |
enc_dim |
A dimensão da saída da camada de incorporação. Opcional Valores válidos: 4 ≤ inteiro ≤ 10000 Valor padrão: 4096 |
enc0_network |
O modelo de rede para o codificador enc0. Opcional Valores válidos:
Valor padrão: |
enc0_cnn_filter_width |
A largura do filtro do codificador enc0 da rede neural convolucional (CNN). Condicional Valores válidos: 1 ≤ inteiro ≤ 9 Valor padrão: 3 |
enc0_freeze_pretrained_embedding |
Se os pesos de incorporações pré-treinadas de enc0 devem ou não ser congelados. Condicional Valores válidos: Valor padrão: |
enc0_layers |
O número de camadas no codificador enc0. Condicional Valores válidos:
Valor padrão: |
enc0_pretrained_embedding_file |
O nome do arquivo de incorporação de token enc0 pré-treinado no canal de dados auxiliar. Condicional Valores válidos: string com caracteres alfanuméricos, sublinhado ou ponto final. [A-Za-z0-9\.\_] Valor padrão: "" (string vazia) |
enc0_token_embedding_dim |
A dimensão de saída da camada de incorporação de token enc0. Condicional Valores válidos: 2 ≤ inteiro ≤ 1000 Valor padrão: 300 |
enc0_vocab_file |
O arquivo de vocabulário para mapear vetores de incorporação de tokens enc0 pré-treinados ao vocabulário numérico. IDs Condicional Valores válidos: string com caracteres alfanuméricos, sublinhado ou ponto final. [A-Za-z0-9\.\_] Valor padrão: "" (string vazia) |
enc1_network |
O modelo de rede do codificador enc1. Se você quiser que o codificador enc1 use o mesmo modelo de rede que o enc0, incluindo os valores do hiperparâmetro, defina o valor como notaMesmo quando as redes dos codificadores enc0 e enc1 tiverem arquiteturas simétricas, você não poderá compartilhar valores de parâmetros para essas redes. Opcional Valores válidos:
Valor padrão: |
enc1_cnn_filter_width |
A largura do filtro do codificador CNN enc1. Condicional Valores válidos: 1 ≤ inteiro ≤ 9 Valor padrão: 3 |
enc1_freeze_pretrained_embedding |
Se os pesos de incorporações pré-treinadas de enc1 devem ou não ser congelados. Condicional Valores válidos: Valor padrão: |
enc1_layers |
O número de camadas no codificador enc1. Condicional Valores válidos:
Valor padrão: |
enc1_max_seq_len |
O tamanho máximo da sequência do codificador enc1. Condicional Valores válidos: 1 ≤ inteiro ≤ 5000 |
enc1_pretrained_embedding_file |
O nome de incorporação de token enc1 pré-treinado no canal de dados auxiliar. Condicional Valores válidos: string com caracteres alfanuméricos, sublinhado ou ponto final. [A-Za-z0-9\.\_] Valor padrão: "" (string vazia) |
enc1_token_embedding_dim |
A dimensão de saída da camada de incorporação de token enc1. Condicional Valores válidos: 2 ≤ inteiro ≤ 1000 Valor padrão: 300 |
enc1_vocab_file |
O arquivo de vocabulário para mapear incorporações de tokens enc1 pré-treinados ao vocabulário. IDs Condicional Valores válidos: string com caracteres alfanuméricos, sublinhado ou ponto final. [A-Za-z0-9\.\_] Valor padrão: "" (string vazia) |
enc1_vocab_size |
O tamanho do vocabulário de tokens enc0. Condicional Valores válidos: 2 ≤ inteiro ≤ 3000000 |
epochs |
O número de epochs a serem executados para treinamento. Opcional Valores válidos: 1 ≤ inteiro ≤ 100 Valor padrão: 30 |
learning_rate |
A taxa de aprendizagem para treinamento. Opcional Valores válidos: 1,0E-6 ≤ flutuante ≤ 1,0 Valor padrão: 0,0004 |
mini_batch_size |
O tamanho do lote em que o conjunto de dados é dividido em um Opcional Valores válidos: 1 ≤ inteiro ≤ 10000 Valor padrão: 32 |
mlp_activation |
O tipo de função de ativação para a camada multicamada perceptron (MLP). Opcional Valores válidos:
Valor padrão: |
mlp_dim |
A dimensão da saída das MLP camadas. Opcional Valores válidos: 2 ≤ inteiro ≤ 10000 Valor padrão: 512 |
mlp_layers |
O número de MLP camadas na rede. Opcional Valores válidos: 0 ≤ inteiro ≤ 10 Valor padrão: 2 |
negative_sampling_rate |
O coeficiente de amostras negativas, gerada para auxiliar no treinamento do algoritmo, para amostras positivas fornecidas pelos usuários. Amostras negativas representam dados que são improváveis de ocorrer na realidade e são rotulados negativamente para treinamento. Eles facilitam o treinamento de um modelo para diferenciar as amostras positivas observadas das amostras negativas que não são. Para especificar a proporção de amostras negativas para amostras positivas usadas para treinamento, defina o valor como um inteiro positivo. Por exemplo, se você treinar o algoritmo em dados de entrada nos quais todas as amostras são positivas e configuradas Opcional Valores válidos: 0 ≤ inteiro Valor padrão: 0 (desativado) |
num_classes |
O número de classes para treinamento de classificação. A Amazon SageMaker ignora esse hiperparâmetro para problemas de regressão. Opcional Valores válidos: 2 ≤ inteiro ≤ 30 Valor padrão: 2 |
optimizer |
O tipo de otimizador. Opcional Valores válidos: Valor padrão: |
output_layer |
O tipo de camada de saída em que você especifica que a tarefa é regressão ou classificação. Opcional Valores válidos:
Valor padrão: |
tied_token_embedding_weight |
Se deve usar uma camada de incorporação compartilhada para os dois codificadores. Se as entradas dos dois codificadores usarem as mesmas unidades de nível de token, use uma camada de incorporação de token compartilhado. Por exemplo, para um conjunto de documentos, se um codificador codifica frases e outro codifica documentos inteiros, você pode usar uma camada de incorporação de token compartilhado. Isso porque ambas as sentenças e documentos são compostos de tokens de palavras do mesmo vocabulário. Opcional Valores válidos: Valor padrão: |
token_embedding_storage_type |
O modo de atualização de gradiente usado durante o treinamento: quando o modo
Opcional Valores válidos: Valor padrão: |
weight_decay |
O parâmetro de degradação de peso usado para otimização. Opcional Valores válidos: 0 ≤ flutuante ≤ 10000 Valor padrão: 0 (sem degradação) |