As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Hiperparâmetros de Classificação de imagens
Hiperparâmetros são parâmetros definidos antes de um modelo de machine learning começar a aprender. Os hiperparâmetros a seguir são compatíveis com o algoritmo de classificação de imagens SageMaker incorporado da Amazon. Consulte Ajustar um modelo de classificação de imagens para obter informações sobre o ajuste de hiperparâmetros de classificação de imagens.
Nome do parâmetro | Descrição |
---|---|
num_classes |
Número de classes de saída. Esse parâmetro especifica as dimensões da rede de saída e geralmente é definido como o número de classes do conjunto de dados. Além da classificação de várias classes, a classificação de vários rótulos também é compatível. Consulte Interface de entrada/saída para o algoritmo de classificação de imagens para obter detalhes sobre como trabalhar com a classificação de vários rótulos com arquivos de manifesto aumentados. Obrigatório Valores válidos: inteiro positivo |
num_training_samples |
Número de exemplos de treinamento no conjunto de dados de entrada. Se esse valor não corresponder ao número de amostras do conjunto de treinamento, o comportamento do parâmetro Obrigatório Valores válidos: inteiro positivo |
augmentation_type |
O tipo de aumento dos dados. As imagens de entrada podem ser aumentadas de várias maneiras, conforme especificado abaixo.
Opcional Valores válidos: Valor padrão: nenhum valor padrão |
beta_1 |
O beta1 para Opcional Valores válidos: flutuante. Intervalo em [0, 1]. Valor padrão: 0.9 |
beta_2 |
O beta2 para Opcional Valores válidos: flutuante. Intervalo em [0, 1]. Valor padrão: 0.999 |
checkpoint_frequency |
Período de armazenamento dos parâmetros do modelo (em número de epochs). Observe que todos os arquivos do ponto de verificação são salvos como parte do arquivo de modelo final "model.tar.gz" e o upload deles é feito no S3 no local do modelo especificado. Isso aumenta o tamanho do arquivo de modelo proporcionalmente ao número de pontos de verificação salvos durante o treinamento. Opcional Valores válidos: inteiro positivo maior que Valor padrão: nenhum valor padrão (Salva o ponto de verificação no epoch que possui a melhor precisão de validação) |
early_stopping |
Opcional Valores válidos: Valor padrão: |
early_stopping_min_epochs |
O número mínimo de epochs que devem ser executados antes que a lógica de interrupção precoce possa ser chamada. Usado apenas quando Opcional Valores válidos: inteiro positivo Valor padrão: 10 |
early_stopping_patience |
O número de epochs de espera antes de concluir o treinamento, se nenhuma melhora tiver ocorrido na métrica relevante. Usado apenas quando Opcional Valores válidos: inteiro positivo Valor padrão: 5 |
early_stopping_tolerance |
Tolerância relativa para medir uma melhoria na métrica de validação de precisão. Se a relação entre a melhoria na precisão dividida pela melhor precisão anterior for menor que o conjunto de valores de Opcional Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.0 |
epochs |
Número de epochs de treinamento. Opcional Valores válidos: inteiro positivo Valor padrão: 30 |
eps |
O épsilon para Opcional Valores válidos: flutuante. Intervalo em [0, 1]. Valor padrão: 1e-8 |
gamma |
O gama para Opcional Valores válidos: flutuante. Intervalo em [0, 1]. Valor padrão: 0.9 |
image_shape |
As dimensões da imagem de entrada, que é o mesmo tamanho da camada de entrada da rede. O formato é definido como " Para treinamento, se alguma imagem de entrada for menor que esse parâmetro em qualquer dimensão, o treinamento falhará. Se uma imagem for maior, uma parte da imagem será cortada, com a área recortada especificada por esse parâmetro. Se o hiperparâmetro Na inferência, as imagens de entrada são redimensionadas para Opcional Valores válidos: string Valor padrão: “3,224,224” |
kv_store |
Modo de sincronização das atualizações de peso durante o treinamento distribuído. As atualizações de peso podem ser feitas de maneira síncrona ou assíncrona nas máquinas. As atualizações síncronas geralmente oferecem mais precisão do que as assíncronas, mas podem ser mais lentas. Consulte o treinamento distribuído em MXNet para obter mais detalhes. Esse parâmetro não é aplicável a treinamentos em uma máquina só.
Opcional Valores válidos: Valor padrão: nenhum valor padrão |
learning_rate |
A taxa de aprendizagem inicial. Opcional Valores válidos: flutuante. Intervalo em [0, 1]. Valor padrão: 0.1 |
lr_scheduler_factor |
O índice de redução da taxa de aprendizagem usado em conjunto com o parâmetro Opcional Valores válidos: flutuante. Intervalo em [0, 1]. Valor padrão: 0.1 |
lr_scheduler_step |
Os epochs nos quais a taxa de aprendizagem deve ser reduzida. Como explicado no parâmetro Opcional Valores válidos: string Valor padrão: nenhum valor padrão |
mini_batch_size |
O tamanho do lote para treinamento. Em uma GPU configuração múltipla de uma única máquina, cada uma GPU manipula amostras de treinamento Opcional Valores válidos: inteiro positivo Valor padrão: 32 |
momentum |
A dinâmica Opcional Valores válidos: flutuante. Intervalo em [0, 1]. Valor padrão: 0.9 |
multi_label |
Sinalizador a ser usado para classificação de vários rótulos, em que cada amostra pode receber vários rótulos. A precisão média em todas as classes é registrada. Opcional Valores válidos: 0 ou 1 Valor padrão: 0 |
num_layers |
Número de camadas para a rede. Para dados com tamanho de imagem grande (por exemplo, 224x224 ImageNet), sugerimos selecionar o número de camadas do conjunto [18, 34, 50, 101, 152, 200]. Para dados com tamanho de imagem pequeno (por exemplo, 28x28CIFAR), sugerimos selecionar o número de camadas do conjunto [20, 32, 44, 56, 110]. O número de camadas em cada conjunto é baseado no ResNet papel. Para aprendizagem de transferência, o número de camadas define a arquitetura da rede de base e, portanto, só pode ser selecionado do conjunto [18, 34, 50, 101, 152, 200]. Opcional Valores válidos: inteiro positivo em [18, 34, 50, 101, 152, 200] ou [20, 32, 44, 56, 110] Valor padrão: 152 |
optimizer |
O tipo de otimizador. Para obter mais detalhes sobre os parâmetros dos otimizadores, consulte. MXNet API Opcional Valores válidos: Um de Valor padrão: |
precision_dtype |
A precisão dos pesos usados para treinamento. O algoritmo pode usar precisão simples ( Opcional Valores válidos: Valor padrão: |
resize |
O número de pixels no lado mais curto de uma imagem depois de redimensioná-la para treinamento. Se o parâmetro não estiver definido, os dados de treinamento serão usados sem redimensionamento. O parâmetro deve ser maior que os componentes de largura e altura de Obrigatório ao usar tipos de conteúdo de imagem Opcional ao usar o tipo de conteúdo RecordIO Valores válidos: inteiro positivo Valor padrão: nenhum valor padrão |
top_k |
Relata a precisão dos itens top-k durante o treinamento. Esse parâmetro deve ser maior que 1, já que a precisão do treinamento dos itens top-1 é a mesma que a do treinamento normal que já foi relatada. Opcional Valores válidos: inteiro positivo maior que 1. Valor padrão: nenhum valor padrão |
use_pretrained_model |
Sinalizador para usar o modelo pré-treinado para treinamento. Se definido como 1, o modelo pré-treinado e o número correspondente de camadas serão carregados e usados para o treinamento. Somente as camadas FC superiores são reinicializadas com pesos aleatórios. Caso contrário, a rede é treinada do zero. Opcional Valores válidos: 0 ou 1 Valor padrão: 0 |
use_weighted_loss |
Sinalizador para usar a perda de entropia cruzada ponderada para classificação de vários rótulos (usada somente quando Opcional Valores válidos: 0 ou 1 Valor padrão: 0 |
weight_decay |
O coeficiente de decaimento de peso para Opcional Valores válidos: flutuante. Intervalo em [0, 1]. Valor padrão: 0.0001 |