As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Registrar uma versão do modelo
Você pode registrar um SageMaker modelo da Amazon criando uma versão do modelo que especifica o grupo de modelos ao qual ele pertence. Uma versão do modelo deve incluir os artefatos do modelo (os pesos treinados de um modelo) e o código de inferência do modelo.
Um pipeline de inferência é um SageMaker modelo composto por uma sequência linear de dois a quinze contêineres que processam solicitações de inferência. Você registra um pipeline de inferência especificando os contêineres e as variáveis de ambiente associadas. Para obter mais informações sobre os pipelines de inferência, consulte Pipelines de inferência na Amazon SageMaker.
Você pode registrar um modelo com um pipeline de inferência especificando os contêineres e as variáveis de ambiente associadas. Para criar uma versão do modelo com um pipeline de inferência usando o AWS SDK for Python (Boto3) console do Amazon SageMaker Studio ou criando uma etapa em um pipeline de criação de SageMaker modelos, use as etapas a seguir.
Tópicos
Registrar uma versão do modelo (SageMakerPipelines)
Para registrar uma versão do modelo usando um pipeline de construção de SageMaker modelos, crie uma RegisterModel
etapa no seu pipeline. Para obter mais informações sobre a criação de uma etapa RegisterModel
de um pipeline, consulte Etapa 8: definir uma RegisterModel etapa para criar um pacote de modelo.
Registrar uma versão do modelo (Boto3)
Para registrar uma versão do modelo usando o Boto3, chame a create_model_package
API operação.
Primeiro, você configura o dicionário de parâmetros para passar para a create_model_package
API operação.
# Specify the model source model_url = "s3://
your-bucket-name/model.tar.gz
" modelpackage_inference_specification = { "InferenceSpecification": { "Containers": [ { "Image":image_uri
, "ModelDataUrl":model_url
} ], "SupportedContentTypes": [ "text/csv" ], "SupportedResponseMIMETypes": [ "text/csv" ], } } # Alternatively, you can specify the model source like this: # modelpackage_inference_specification["InferenceSpecification"]["Containers"][0]["ModelDataUrl"]=model_url create_model_package_input_dict = { "ModelPackageGroupName" : model_package_group_name, "ModelPackageDescription" : "Model to detect 3 different types of irises (Setosa, Versicolour, and Virginica)", "ModelApprovalStatus" : "PendingManualApproval" } create_model_package_input_dict.update(modelpackage_inference_specification)
Em seguida, você chama a create_model_package
API operação, passando o dicionário de parâmetros que acabou de configurar.
create_model_package_response = sm_client.create_model_package(**create_model_package_input_dict) model_package_arn = create_model_package_response["ModelPackageArn"] print('ModelPackage Version ARN : {}'.format(model_package_arn))
Registrar uma versão do modelo (Studio ou Studio Classic)
Para registrar uma versão do modelo no console do Amazon SageMaker Studio, conclua as etapas a seguir com base no uso do Studio ou do Studio Classic.
Registrar uma versão do modelo de uma conta diferente
Para registrar versões de modelo com um grupo de modelos criado por uma AWS conta diferente, você deve adicionar uma política de AWS Identity and Access Management recursos entre contas para habilitar essa conta. Por exemplo, uma AWS conta em sua organização é responsável pelos modelos de treinamento e uma conta diferente é responsável pelo gerenciamento, implantação e atualização dos modelos. Você cria políticas de IAM recursos e aplica as políticas ao recurso de conta específico ao qual deseja conceder acesso para esse caso. Para obter mais informações sobre políticas de recursos entre contas em AWS, consulte Lógica de avaliação de políticas entre contas no Guia do AWS Identity and Access Management usuário.
nota
Você também deve usar uma KMS chave para criptografar a ação de configuração de dados de saída durante o treinamento para implantação do modelo entre contas.
Para habilitar o registro do modelo entre contas em SageMaker, você precisa fornecer uma política de recursos entre contas para o grupo de modelos que contém as versões do modelo. Veja a seguir um exemplo que cria políticas entre contas para o Grupo de Modelos e aplica essas políticas a esse recurso específico.
A configuração a seguir deve ser definida na conta de origem, que registra modelos entre contas em um grupo de modelos. Neste exemplo, a conta de origem é a conta de treinamento de modelos que treinará e, em seguida, registrará o modelo entre contas no Registro do Modelo da conta do Registro do Modelo.
O exemplo pressupõe que você tenha definido anteriormente as seguintes variáveis:
-
sm_client
— Um cliente do SageMaker Boto3. -
model_package_group_name
— O grupo de modelos ao qual você deseja conceder acesso. -
model_package_group_arn
— O grupo de modelos ARN ao qual você deseja conceder acesso entre contas. -
bucket
— O bucket do Amazon S3 onde os artefatos de treinamento do modelo são armazenados.
Para poder implantar um modelo criado em uma conta diferente, o usuário deve ter uma função que tenha acesso às SageMaker ações, como uma função com a política AmazonSageMakerFullAccess
gerenciada. Para obter informações sobre políticas SageMaker gerenciadas, consulteAWS Políticas gerenciadas para a Amazon SageMaker.
Políticas IAM de recursos necessárias
O diagrama a seguir captura as políticas necessárias para permitir o registro do modelo entre contas. Conforme mostrado, essas políticas precisam estar ativas durante o treinamento do modelo para registrar adequadamente o modelo na conta do Registro de Modelos.
A AmazonECR, o Amazon S3 e as AWS KMS políticas são demonstradas nos seguintes exemplos de código.
Exemplo de ECR política da Amazon
{ "Version": "2012-10-17", "Statement": [ { "Sid": "AddPerm", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::{
model_registry_account
}:root" }, "Action": [ "ecr:BatchGetImage", "ecr:Describe*" ] } ] }
Exemplo de política do Amazon S3
{ "Version": "2012-10-17", "Statement": [ { "Sid": "AddPerm", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::{
model_registry_account
}:root" }, "Action": [ "s3:GetObject", "s3:GetBucketAcl", "s3:GetObjectAcl" ], "Resource": "arn:aws:s3:::{bucket
}/*" } ] }
AWS KMS Política de amostra
{ "Version": "2012-10-17", "Statement": [ { "Sid": "AddPerm", "Effect": "Allow", "Principal": { "AWS": "arn:aws:iam::{
model_registry_account
}:root" }, "Action": [ "kms:Decrypt", "kms:GenerateDataKey*" ], "Resource": "*" } ] }
Aplicar políticas de recursos às contas
A configuração de política a seguir aplica as políticas abordadas na seção anterior e deve ser colocada na conta de treinamento de modelos.
import json # The Model Registry account id of the Model Group model_registry_account = "
111111111111
" # The model training account id where training happens model_training_account = "222222222222
" # 1. Create a policy for access to the ECR repository # in the model training account for the Model Registry account Model Group ecr_repository_policy = {"Version": "2012-10-17", "Statement": [{"Sid": "AddPerm", "Effect": "Allow", "Principal": { "AWS": f"arn:aws:iam::{model_registry_account}:root" }, "Action": [ "ecr:BatchGetImage", "ecr:Describe*" ] }] } # Convert the ECR policy from JSON dict to string ecr_repository_policy = json.dumps(ecr_repository_policy) # Set the new ECR policy ecr = boto3.client('ecr') response = ecr.set_repository_policy( registryId = model_training_account, repositoryName = "decision-trees-sample", policyText = ecr_repository_policy ) # 2. Create a policy in the model training account for access to the S3 bucket # where the model is present in the Model Registry account Model Group bucket_policy = {"Version": "2012-10-17", "Statement": [{"Sid": "AddPerm", "Effect": "Allow", "Principal": {"AWS": f"arn:aws:iam::{model_registry_account}:root" }, "Action": [ "s3:GetObject", "s3:GetBucketAcl", "s3:GetObjectAcl" ], "Resource": [ "arn:aws:s3:::{bucket
}/*", "Resource: arn:aws:s3:::{bucket
}" ] }] } # Convert the S3 policy from JSON dict to string bucket_policy = json.dumps(bucket_policy) # Set the new bucket policy s3 = boto3.client("s3") response = s3.put_bucket_policy( Bucket =bucket
, Policy = bucket_policy) # 3. Create the KMS grant for the key used during training for encryption # in the model training account to the Model Registry account Model Group client = boto3.client("kms") response = client.create_grant( GranteePrincipal=model_registry_account, KeyId=kms_key_id Operations=[ "Decrypt", "GenerateDataKey", ], )
A configuração a seguir precisa ser colocada na conta do Registro do Modelo em que o Grupo de Modelos existe.
# The Model Registry account id of the Model Group model_registry_account = "
111111111111
" # 1. Create policy to allow the model training account to access the ModelPackageGroup model_package_group_policy = {"Version": "2012-10-17", "Statement": [ { "Sid": "AddPermModelPackageVersion", "Effect": "Allow", "Principal": {"AWS": f"arn:aws:iam::{model_training_account
}:root"}, "Action": ["sagemaker:CreateModelPackage"], "Resource": f"arn:aws:sagemaker:{region}:{model_registry_account}:model-package/{model_package_group_name
}/*" } ] } # Convert the policy from JSON dict to string model_package_group_policy = json.dumps(model_package_group_policy) # Set the new policy response = sm_client.put_model_package_group_policy( ModelPackageGroupName =model_package_group_name
, ResourcePolicy = model_package_group_policy)
Por fim, use a ação create_model_package
a partir da conta de treinamento de modelos para registrar o pacote de modelos entre contas.
# Specify the model source model_url = "s3://{
bucket
}/model.tar.gz" #Set up the parameter dictionary to pass to the create_model_package API operation modelpackage_inference_specification = { "InferenceSpecification": { "Containers": [ { "Image": f"{model_training_account
}.dkr.ecr.us-east-2.amazonaws.com/decision-trees-sample:latest", "ModelDataUrl": model_url } ], "SupportedContentTypes": [ "text/csv" ], "SupportedResponseMIMETypes": [ "text/csv" ], } } # Alternatively, you can specify the model source like this: # modelpackage_inference_specification["InferenceSpecification"]["Containers"][0]["ModelDataUrl"]=model_url create_model_package_input_dict = { "ModelPackageGroupName" :model_package_group_arn
, "ModelPackageDescription" : "Model to detect 3 different types of irises (Setosa, Versicolour, and Virginica)", "ModelApprovalStatus" : "PendingManualApproval" } create_model_package_input_dict.update(modelpackage_inference_specification) # Create the model package in the Model Registry account create_model_package_response = sm_client.create_model_package(**create_model_package_input_dict) model_package_arn = create_model_package_response["ModelPackageArn"] print('ModelPackage Version ARN : {}'.format(model_package_arn))