Hiperparâmetros de Segmentação semântica - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Hiperparâmetros de Segmentação semântica

As tabelas a seguir listam os hiperparâmetros suportados pelo algoritmo de segmentação SageMaker semântica da Amazon para arquitetura de rede, entradas de dados e treinamento. Você especifica a Segmentação semântica para treinamento noAlgorithmName da solicitação CreateTrainingJob.

Hiperparâmetros de arquitetura de rede

Nome do parâmetro Descrição
backbone

O backbone a ser usado para o componente codificador do algoritmo.

Opcional

Valores válidos: resnet-50, resnet-101

Valor padrão: resnet-50

use_pretrained_model

Se um modelo pré-treinado deve ou não ser usado para o backbone.

Opcional

Valores válidos: True, False

Valor padrão: True

algorithm

O algoritmo a ser usado para a segmentação semântica.

Opcional

Valores válidos:

Valor padrão: fcn

Hiperparâmetros de dados

Nome do parâmetro Descrição
num_classes

O número de classes para segmentar.

Obrigatório

Valores válidos: 2 ≤ número inteiro positivo ≤ 254

num_training_samples

O número de amostras nos dados de treinamento. O algoritmo usa esse valor para configurar o planejador de taxa de aprendizagem.

Obrigatório

Valores válidos: inteiro positivo

base_size

Define como as imagens são redimensionadas antes do corte. As imagens são redimensionadas de modo que o comprimento de tamanho longo é definido como base_size multiplicado por um número aleatório de 0,5 a 2,0, e o tamanho curto é calculado para preservar a proporção.

Opcional

Valores válidos: número inteiro positivo > 16

Valor padrão: 520

crop_size

O tamanho de imagem para entrada durante o treinamento. Redimensionamos aleatoriamente a imagem de entrada com base em base_size e, depois, fazemos um corte quadrado aleatório com comprimento lateral igual a crop_size. Os crop_size serão arredondados automaticamente para múltiplos de 8.

Opcional

Valores válidos: número inteiro positivo > 16

Valor padrão: 240

Hiperparâmetros de treinamento

Nome do parâmetro Descrição
early_stopping

Se a lógica de interrupção precoce deve ou não ser usada durante o treinamento.

Opcional

Valores válidos: True, False

Valor padrão: False

early_stopping_min_epochs

O número mínimo de epochs que devem ser executados.

Opcional

Valores válidos: inteiro

Valor padrão: 5

early_stopping_patience

O número de epochs que atendem à tolerância de desempenho inferior antes que o algoritmo imponha uma interrupção precoce.

Opcional

Valores válidos: inteiro

Valor padrão: 4

early_stopping_tolerance

Se a melhoria relativa da pontuação do trabalho de treinamento, mIOU, for menor que esse valor, a interrupção precoce considerará que o epoch não melhorou. Usado apenas quando early_stopping = True.

Opcional

Valores válidos: 0 ≤ flutuante ≤ 1

Valor padrão: 0.0

epochs

O número de epochs com os quais treinar.

Opcional

Valores válidos: inteiro positivo

Valor padrão: 10

gamma1

O fator de degradação para a média móvel do gradiente quadrado para rmsprop. Usado apenas para rmsprop.

Opcional

Valores válidos: 0 ≤ flutuante ≤ 1

Valor padrão: 0.9

gamma2

O fator de dinâmica para rmsprop.

Opcional

Valores válidos: 0 ≤ flutuante ≤ 1

Valor padrão: 0.9

learning_rate

A taxa de aprendizagem inicial.

Opcional

Valores válidos: 0 < flutuante ≤ 1

Valor padrão: 0.001

lr_scheduler

A forma do cronograma de taxa de aprendizagem que controla sua diminuição ao longo do tempo.

Opcional

Valores válidos:

  • step: Uma degradação gradual, em que a taxa de aprendizagem é reduzida (multiplicada) pelo lr_scheduler_factor após os epochs especificados por lr_scheduler_step.

  • poly: Uma degradação suave usando uma função polinomial.

  • cosine: Uma degradação suave usando uma função de cosseno.

Valor padrão: poly

lr_scheduler_factor

Se lr_scheduler estiver definido como step, a proporção pela qual reduzir (multiplicar) o learning_rate após cada uma dos epochs especificados pelo lr_scheduler_step. Caso contrário, ele será ignorado.

Opcional

Valores válidos: 0 ≤ flutuante ≤ 1

Valor padrão: 0.1

lr_scheduler_step

Uma lista delimitada por vírgula dos epochs após os quais a learning_rate é reduzida (multiplicada) por um lr_scheduler_factor. Por exemplo, se o valor for definido como "10, 20", a learning-rate será reduzida pelo lr_scheduler_factor após o 10º epoch e novamente por esse fator após o 20º epoch.

Obrigatório condicionalmente se o lr_scheduler estiver definido como step. Caso contrário, ele será ignorado.

Valores válidos: string

Valor padrão: (Sem padrão, pois o valor é obrigatório quando usado.)

mini_batch_size

O tamanho do lote para treinamento. Usar um mini_batch_size grande geralmente resulta em um treinamento mais rápido, mas pode causar falta de memória. O uso da memória é afetado pelos valores dos parâmetros mini_batch_size e image_shape, e da arquitetura de backbone.

Opcional

Valores válidos: inteiro positivo

Valor padrão: 16

momentum

A dinâmica do otimizador sgd. Quando você usa outros otimizadores, o algoritmo de segmentação semântica ignora esse parâmetro.

Opcional

Valores válidos: 0 < flutuante ≤ 1

Valor padrão: 0.9

optimizer

O tipo de otimizador. Para obter mais informações sobre um otimizador, escolha o link apropriado:

Opcional

Valores válidos: adam, adagrad, nag, rmsprop, sgd

Valor padrão: sgd

syncbn

Se definido como True, a média e a variância da normalização do lote são calculadas em todas as amostras processadas nas GPUs.

Opcional

Valores válidos: True, False

Valor padrão: False

validation_mini_batch_size

O tamanho do lote para validação. Um mini_batch_size grande geralmente resulta em um treinamento mais rápido, mas pode causar falta de memória. O uso da memória é afetado pelos valores dos parâmetros mini_batch_size e image_shape, e da arquitetura de backbone.

  • Para pontuar a validação em toda a imagem sem recortá-la, defina esse parâmetro como 1. Use essa opção se quiser medir o desempenho na imagem inteira como um todo.

    nota

    Definir o parâmetro validation_mini_batch_size como 1 faz com que o algoritmo crie um novo modelo de rede para cada imagem. Isso pode retardar a validação e o treinamento.

  • Para recortar imagens no tamanho especificado no parâmetro crop_size, mesmo durante a avaliação, defina esse parâmetro como um valor maior que 1.

Opcional

Valores válidos: inteiro positivo

Valor padrão: 16

weight_decay

O coeficiente de degradação do peso do otimizador sgd. Quando você usa outros otimizadores, o algoritmo ignora esse parâmetro.

Opcional

Valores válidos: 0 < flutuante < 1

Valor padrão: 0.0001