Hiperparâmetros de Segmentação semântica
As tabelas a seguir listam os hiperparâmetros com suporte pelo algoritmo de segmentação de semântica do Amazon SageMaker para arquitetura de rede, entradas de dados e treinamento. Você especifica a Segmentação semântica para treinamento noAlgorithmName
da solicitação CreateTrainingJob
.
Hiperparâmetros de arquitetura de rede
Nome do parâmetro | Descrição |
---|---|
backbone |
O backbone a ser usado para o componente codificador do algoritmo. Opcional Valores válidos: Valor padrão: |
use_pretrained_model |
Se um modelo pré-treinado deve ou não ser usado para o backbone. Opcional Valores válidos: Valor padrão: |
algorithm |
O algoritmo a ser usado para a segmentação semântica. Opcional Valores válidos: Valor padrão: |
Hiperparâmetros de dados
Nome do parâmetro | Descrição |
---|---|
num_classes |
O número de classes para segmentar. Obrigatório Valores válidos: 2 ≤ número inteiro positivo ≤ 254 |
num_training_samples |
O número de amostras nos dados de treinamento. O algoritmo usa esse valor para configurar o planejador de taxa de aprendizagem. Obrigatório Valores válidos: inteiro positivo |
base_size |
Define como as imagens são redimensionadas antes do corte. As imagens são redimensionadas de modo que o comprimento de tamanho longo é definido como Opcional Valores válidos: número inteiro positivo > 16 Valor padrão: 520 |
crop_size |
O tamanho de imagem para entrada durante o treinamento. Redimensionamos aleatoriamente a imagem de entrada com base em Opcional Valores válidos: número inteiro positivo > 16 Valor padrão: 240 |
Hiperparâmetros de treinamento
Nome do parâmetro | Descrição |
---|---|
early_stopping |
Se a lógica de interrupção precoce deve ou não ser usada durante o treinamento. Opcional Valores válidos: Valor padrão: |
early_stopping_min_epochs |
O número mínimo de epochs que devem ser executados. Opcional Valores válidos: inteiro Valor padrão: 5 |
early_stopping_patience |
O número de epochs que atendem à tolerância de desempenho inferior antes que o algoritmo imponha uma interrupção precoce. Opcional Valores válidos: inteiro Valor padrão: 4 |
early_stopping_tolerance |
Se a melhoria relativa da pontuação do trabalho de treinamento, mIOU, for menor que esse valor, a interrupção precoce considerará que o epoch não melhorou. Usado apenas quando Opcional Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.0 |
epochs |
O número de epochs com os quais treinar. Opcional Valores válidos: inteiro positivo Valor padrão: 10 |
gamma1 |
O fator de degradação para a média móvel do gradiente quadrado para Opcional Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.9 |
gamma2 |
O fator de dinâmica para Opcional Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.9 |
learning_rate |
A taxa de aprendizagem inicial. Opcional Valores válidos: 0 < flutuante ≤ 1 Valor padrão: 0.001 |
lr_scheduler |
A forma do cronograma de taxa de aprendizagem que controla sua diminuição ao longo do tempo. Opcional Valores válidos:
Valor padrão: |
lr_scheduler_factor |
Se Opcional Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.1 |
lr_scheduler_step |
Uma lista delimitada por vírgula dos epochs após os quais a Obrigatório condicionalmente se o Valores válidos: string Valor padrão: (Sem padrão, pois o valor é obrigatório quando usado.) |
mini_batch_size |
O tamanho do lote para treinamento. Usar um Opcional Valores válidos: inteiro positivo Valor padrão: 16 |
momentum |
A dinâmica do otimizador Opcional Valores válidos: 0 < flutuante ≤ 1 Valor padrão: 0.9 |
optimizer |
O tipo de otimizador. Para obter mais informações sobre um otimizador, escolha o link apropriado: Opcional Valores válidos: Valor padrão: |
syncbn |
Se definido como Opcional Valores válidos: Valor padrão: |
validation_mini_batch_size |
O tamanho do lote para validação. Um
Opcional Valores válidos: inteiro positivo Valor padrão: 16 |
weight_decay |
O coeficiente de degradação do peso do otimizador Opcional Valores válidos: 0 < flutuante < 1 Valor padrão: 0.0001 |