As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Opções disponíveis
A tabela a seguir mostra todas as opções disponíveis que você pode usar para personalizar seu trabalho no notebook, independentemente de você executar o Notebook Job no Studio, em um ambiente Jupyter local ou usando o Python SageMaker . SDK A tabela inclui o tipo de opção personalizada, uma descrição, diretrizes adicionais sobre como usar a opção, um nome de campo para a opção no Studio (se disponível) e o nome do parâmetro para a etapa de trabalho do notebook no SageMaker Python SDK (se disponível).
Para algumas opções, você também pode predefinir valores padrão personalizados para não precisar especificá-los toda vez que configurar um trabalho no notebook. Para o Studio, essas opções são Função, Pasta de entrada, Pasta de saída e ID da KMS chave, e são especificadas na tabela a seguir. Se você predefinir padrões personalizados para essas opções, esses campos serão pré-preenchidos no formulário Create Job quando você criar seu trabalho no notebook. Para obter detalhes sobre como criar padrões personalizados no Studio e nos ambientes locais do Jupyter, consulte. Configurar opções padrão para notebooks locais
SageMaker SDKTambém oferece a opção de definir padrões inteligentes para que você não precise especificar esses parâmetros ao criar um. NotebookJobStep
Esses parâmetros sãorole
,s3_root_uri
,s3_kms_key
,volume_kms_key
, subnets
security_group_ids
, e são especificados na tabela a seguir. Para obter informações sobre como definir padrões inteligentes, consulte. Configurar opções padrão
Opções personalizadas | Descrição | Diretriz específica para estúdios | Diretriz ambiental local do Jupyter | SageMaker Diretriz do Python SDK |
---|---|---|---|---|
Nome do trabalho | O nome do seu trabalho, como deveria aparecer no painel Notebook Jobs. | Campo Nome do trabalho. | O mesmo que o Studio. | Parâmetronotebook_job_name . Padronizado como None . |
Imagem | A imagem do contêiner usada para executar o notebook de forma não interativa no tipo de computação escolhido. | Imagem de campo. Esse campo é padronizado para a imagem atual do seu notebook. Altere esse campo do padrão para um valor personalizado, se necessário. Se o Studio não puder inferir esse valor, o formulário exibirá um erro de validação exigindo que você o especifique. Essa imagem pode ser personalizada, bring-your-own imagem ou uma SageMaker imagem disponível da Amazon. Para obter uma lista das SageMaker imagens disponíveis suportadas pelo agendador do notebook, consulte SageMaker Imagens da Amazon disponíveis para uso com o Studio Classic. | Imagem de campo. Esse campo requer uma imagem ECR URI do Docker que possa executar o notebook fornecido no tipo de computação selecionado. Por padrão, a extensão do agendador usa um Python 2.0 pré-construído baseado em SageMaker imagens do Docker. Esta é a imagem oficial do Python 3.8 DockerHub com boto3 AWS CLI e o kernel do Python 3. Você também pode fornecer qualquer uma ECR URI que atenda à especificação de imagem personalizada do notebook. Para obter detalhes, consulte Especificações de SageMaker imagem personalizadas. Essa imagem deve ter todos os kernels e bibliotecas necessários para a execução do notebook. | Obrigatório. Parâmetroimage_uri . URIlocalização de uma imagem do Docker em. ECR Você pode usar imagens de SageMaker distribuição específicas ou imagens personalizadas com base nessas imagens, ou sua própria imagem pré-instalada com dependências de trabalho do notebook que atendam a requisitos adicionais. Para obter detalhes, consulte Restrições de imagem para trabalhos em notebooks Python SageMaker SDK. |
Tipo de instância | O tipo de EC2 instância a ser usado para executar o trabalho do notebook. O trabalho do notebook usa um SageMaker Training Job como camada de computação, portanto, o tipo de instância especificado deve ser um tipo de instância suportado pelo SageMaker Training. | Tipo de computação de campo. Padronizado como ml.m5.large . |
O mesmo que o Studio. | Parâmetroinstance_type . Padronizado como ml.m5.large . |
Kernel | O kernel do Jupyter usado para executar o trabalho do notebook. | Kernel de campo. Esse campo é padronizado para o kernel atual do seu notebook. Altere esse campo do padrão para um valor personalizado, se necessário. Se o Studio não puder inferir esse valor, o formulário exibirá um erro de validação exigindo que você o especifique. | Kernel de campo. Esse kernel deve estar presente na imagem e seguir as especificações do kernel do Jupyter. Esse campo é padronizado para o kernel Python3 encontrado na imagem base do Python 2.0. SageMaker Altere esse campo para um valor personalizado, se necessário. | Obrigatório. Parâmetrokernel_name . Esse kernel deve estar presente na imagem e seguir as especificações do kernel do Jupyter. Para ver os identificadores do kernel da sua imagem, consulte ()LINK. |
SageMaker sessão | A SageMaker sessão subjacente à qual as chamadas SageMaker de serviço são delegadas. | N/D | N/D | Parâmetrosagemaker_session . Se não for especificado, um será criado usando uma cadeia de configuração padrão. |
Função ARN | O Amazon Resource Name (ARN) da função usado com o trabalho do notebook. | Função de campoARN. Esse campo é padronizado para a função de execução do Studio. Altere esse campo para um valor personalizado, se necessário. notaSe o Studio não puder inferir esse valor, o ARN campo Função ficará em branco. Nesse caso, insira o ARN que você deseja usar. |
Função de campoARN. Esse campo é padronizado para qualquer função prefixada com SagemakerJupyterScheduler . Se você tiver várias funções com o prefixo, a extensão escolherá uma. Altere esse campo para um valor personalizado, se necessário. Para esse campo, você pode definir seu próprio padrão de usuário, que é pré-preenchido sempre que você cria uma nova definição de trabalho. Para obter detalhes, consulte Configurar opções padrão para notebooks locais. |
Parâmetrorole . O padrão é a IAM função SageMaker padrão se SDK estiver sendo executado em SageMaker Notebooks ou SageMaker Studio Notebooks. Caso contrário, ele lança umValueError . Permite padrões inteligentes. |
Notebook de entrada | O nome do notebook que você está programando para executar. | Obrigatório. Arquivo de entrada de campo. | O mesmo que o Studio. | Obrigatório. Parâmetro. input_notebook |
Pasta de entrada | A pasta que contém suas entradas. As entradas do trabalho, incluindo o caderno de entrada e quaisquer scripts opcionais de inicialização ou inicialização, são colocadas nessa pasta. | Pasta de entrada de campo. Se você não fornecer uma pasta, o agendador cria um bucket padrão do Amazon S3 para suas entradas. | O mesmo que o Studio. Para esse campo, você pode definir seu próprio padrão de usuário, que é pré-preenchido sempre que você cria uma nova definição de trabalho. Para obter detalhes, consulte Configurar opções padrão para notebooks locais. | N/A. A pasta de entrada é colocada dentro do local especificado pelo parâmetro. s3_root_uri |
Pasta de saída | A pasta que contém suas saídas. As saídas do trabalho, incluindo o notebook de saída e os registros, são colocadas nessa pasta. | Pasta de saída de campo. Se você não fornecer uma pasta, o agendador cria um bucket padrão do Amazon S3 para suas entradas. | O mesmo que o Studio. Para esse campo, você pode definir seu próprio padrão de usuário, que é pré-preenchido sempre que você cria uma nova definição de trabalho. Para obter detalhes, consulte Configurar opções padrão para notebooks locais. | N/A. A pasta de saída é colocada dentro do local especificado pelo parâmetro. s3_root_uri |
Parâmetros | Um dicionário de variáveis e valores para passar para seu trabalho no notebook. | Parâmetros de campo. Você precisa parametrizar seu notebook para aceitar parâmetros. | O mesmo que o Studio. | Parâmetroparameters . Você precisa parametrizar seu notebook para aceitar parâmetros. |
Dependências adicionais (arquivo ou pasta) | A lista de dependências de arquivos ou pastas que o trabalho do notebook carrega para a pasta staged s3. | Sem suporte. | Sem suporte. | Parâmetroadditional_dependencies . O trabalho do notebook carrega essas dependências em uma pasta temporária do S3 para que possam ser consumidas durante a execução. |
Raiz S3 URI | A pasta que contém suas entradas. As entradas do trabalho, incluindo o caderno de entrada e quaisquer scripts opcionais de inicialização ou inicialização, são colocadas nessa pasta. | N/A. Use a pasta de entrada e a pasta de saída. | O mesmo que o Studio. | Parâmetros3_root_uri . O padrão é um bucket S3 padrão. Permite padrões inteligentes. |
Variáveis de ambiente | Qualquer variável de ambiente existente que você queira substituir ou novas variáveis de ambiente que você queira introduzir e usar em seu notebook. | Variáveis de ambiente de campo. | O mesmo que o Studio. | Parâmetroenvironment_variables . Padronizado como None . |
Tags | Uma lista de etiquetas anexadas ao trabalho. | N/D | N/D | Parâmetrotags . Padronizado como None . Suas tags controlam como a interface do usuário do Studio captura e exibe o trabalho criado pelo pipeline. Para obter detalhes, consulte Visualize suas tarefas de notebook no painel do Studio UI. |
Script de inicialização | Um script pré-carregado no menu de inicialização do notebook que você pode optar por executar antes de executar o notebook. | Script de inicialização de campo. Selecione um script de Configuração do Ciclo de Vida (LCC) que seja executado na imagem na inicialização.notaUm script de inicialização é executado em um shell fora do ambiente do Studio. Portanto, esse script não pode depender do armazenamento local do Studio, das variáveis de ambiente ou dos metadados do aplicativo (em |
Sem suporte. | Sem suporte. |
Script de inicialização | Um caminho para um script local que você pode executar quando o notebook é inicializado. | Script de inicialização de campo. Insira o caminho do EFS arquivo em que um script local ou um script de Configuração do Ciclo de Vida (LCC) está localizado. Se você usar um script de inicialização e um script de inicialização, o script de inicialização será executado primeiro.notaUm script de inicialização é originado do mesmo shell do trabalho do notebook. Esse não é o caso de um script de inicialização descrito anteriormente. Além disso, se você usar um script de inicialização e um script de inicialização, o script de inicialização será executado primeiro. |
Script de inicialização de campo. Insira o caminho do arquivo local em que um script local ou um script de Configuração do Ciclo de Vida (LCC) está localizado. | Parâmetroinitialization_script . Padronizado como None . |
Máximo de tentativas de repetição | O número de vezes que o Studio tenta executar novamente uma execução de trabalho com falha. | Tentativas de repetição do Field Max. Padronizado como 1. | O mesmo que o Studio. | Parâmetromax_retry_attempts . Padronizado como 1. |
Tempo máximo de execução (em segundos) | O tempo máximo, em segundos, que um trabalho de caderno pode ser executado antes de ser interrompido. Se você configurar o tempo máximo de execução e o máximo de tentativas de repetição, o tempo de execução se aplicará a cada nova tentativa. Se um trabalho não for concluído nesse período, seu status será definido como Failed . |
Tempo máximo de execução do campo (em segundos). Padronizado como 172800
seconds (2 days) . |
O mesmo que o Studio. | Parâmetromax_runtime_in_seconds . Padronizado como 172800 seconds
(2 days) . |
Política de novas tentativas | Uma lista de políticas de repetição, que regem as ações a serem tomadas em caso de falha. | Sem suporte. | Sem suporte. | Parâmetroretry_policies . Padronizado como None . |
Adicionar Step nossas StepCollection dependências |
Uma lista de StepCollection nomes Step ou instâncias das quais o trabalho depende. |
Sem suporte. | Sem suporte. | Parâmetrodepends_on . Padronizado como None . Use isso para definir dependências explícitas entre as etapas no gráfico do pipeline. |
Tamanho do volume | O tamanho em GB do volume de armazenamento para armazenar dados de entrada e saída durante o treinamento. | Sem suporte. | Sem suporte. | Parâmetrovolume_size . O padrão é 30 GB. |
Criptografe o tráfego entre contêineres | Um sinalizador que especifica se o tráfego entre os contêineres de treinamento é criptografado para o trabalho de treinamento. | N/A. Ativado por padrão. | N/A. Ativado por padrão. | Parâmetroencrypt_inter_container_traffic . Padronizado como True . |
Configurar a criptografia de trabalhos | Um indicador de que você deseja criptografar as saídas de trabalho do notebook, o volume da instância de trabalho ou ambos. | Campo Configurar criptografia de tarefas. Marque essa caixa para escolher a criptografia. Se não for marcada, as saídas do trabalho serão criptografadas com a KMS chave padrão da conta e o volume da instância do trabalho não será criptografado. | O mesmo que o Studio. | Sem suporte. |
KMSChave de criptografia de saída | Uma KMS chave a ser usada se você quiser personalizar a chave de criptografia usada nas saídas de trabalho do notebook. Esse campo só é aplicável se você tiver marcado Configurar criptografia de trabalhos. | KMSChave de criptografia de saída de campo. Se você não especificar esse campo, as saídas de trabalho do seu notebook serão criptografadas com SSE - KMS usando a chave padrão do Amazon KMS S3. Além disso, se você mesmo criar o bucket do Amazon S3 e usar criptografia, seu método de criptografia será preservado. | O mesmo que o Studio. Para esse campo, você pode definir seu próprio padrão de usuário, que é pré-preenchido sempre que você cria uma nova definição de trabalho. Para obter detalhes, consulte Configurar opções padrão para notebooks locais. | Parâmetros3_kms_key . Padronizado como None . Permite padrões inteligentes. |
KMSChave de criptografia de volume da instância Job | Uma KMS chave para usar se você quiser criptografar o volume da sua instância de trabalho. Esse campo só é aplicável se você tiver marcado Configurar criptografia de trabalhos. | KMSChave de criptografia de volume da instância Field Job. | KMSChave de criptografia de volume da instância Field Job. Para esse campo, você pode definir seu próprio padrão de usuário, que é pré-preenchido sempre que você cria uma nova definição de trabalho. Para obter detalhes, consulte Configurar opções padrão para notebooks locais. | Parâmetrovolume_kms_key . Padronizado como None . Permite padrões inteligentes. |
Use uma nuvem privada virtual para executar esse trabalho (para VPC usuários) | Um indicador de que você deseja executar esse trabalho em uma nuvem privada virtual (VPC). Para maior segurança, é recomendável que você use um privadoVPC. | Campo Use uma nuvem privada virtual para executar esse trabalho. Marque essa caixa se quiser usar umVPC. No mínimo, crie os seguintes VPC endpoints para permitir que sua tarefa de notebook se conecte de forma privada a esses AWS recursos:
|
O mesmo que o Studio. | N/D |
Sub-rede (s) (para VPC usuários) | Suas sub-redes. Esse campo deve conter pelo menos uma e no máximo cinco, e todas as sub-redes fornecidas devem ser privadas. Para obter detalhes, consulte VPCSub-redes públicas não suportadas em. Restrições e considerações | Sub-rede (s) de campo. Esse campo usa como padrão as sub-redes associadas ao domínio do Studio, mas você pode alterar esse campo se necessário. | Sub-rede (s) de campo. O agendador não consegue detectar suas sub-redes, então você precisa inserir todas as sub-redes que você configurou para sua. VPC | Parâmetrosubnets . Padronizado como None . Permite padrões inteligentes. |
Grupo (s) de segurança (para VPC usuários) | Seus grupos de segurança. Esse campo deve conter pelo menos um e no máximo 15. Para obter detalhes, consulte VPCSub-redes públicas não suportadas em. Restrições e considerações | Grupos de segurança de campo. Esse campo usa como padrão os grupos de segurança associados ao domínioVPC, mas você pode alterar esse campo se necessário. | Grupos de segurança de campo. O agendador não consegue detectar seus grupos de segurança, então você precisa inserir todos os grupos de segurança que você configurou para o seuVPC. | Parâmetrosecurity_group_ids . Padronizado como None . Permite padrões inteligentes. |
Nome | O nome da etapa de trabalho do notebook. | N/D | N/D | Parâmetroname . Se não for especificado, é derivado do nome do arquivo do notebook. |
Nome de exibição | O nome do seu trabalho, como deveria aparecer na sua lista de execuções do pipeline. | N/D | N/D | Parâmetrodisplay_name . Padronizado como None . |
Descrição | Uma descrição do seu trabalho. | N/D | N/D | Parâmetrodescription . |