Aviso de fim do suporte: em 31 de outubro de 2025, o suporte para o Amazon Lookout for Vision AWS será interrompido. Depois de 31 de outubro de 2025, você não poderá mais acessar o console do Lookout for Vision ou os recursos do Lookout for Vision. Para obter mais informações, visite esta postagem do blog.
As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Iniciar seu modelo do Amazon Lookout for Vision
Antes de usar um modelo do Amazon Lookout for Vision para detectar anomalias, você deve primeiro iniciar o modelo. Você inicia um modelo chamando a API StartModel e transmitindo o seguinte:
ProjectName — o nome do projeto que contém o modelo que deseja iniciar.
ModelVersion — A versão do modelo que você deseja iniciar.
minInferenceUnits — O número mínimo de unidades de inferência. Para obter mais informações, consulte Unidades de inferência.
(Opcional) MaxInferenceUnits — O número máximo de unidades de inferência que o Amazon Lookout for Vision pode usar para escalar automaticamente o modelo. Para obter mais informações, consulte Unidades de inferência de escala automática.
O console do Amazon Lookout for Vision fornece um código de exemplo que é possível utilizar para iniciar e parar um modelo.
Você é cobrado pela quantidade de tempo em que seu modelo está em execução. Para interromper um modelo em execução, consulteParar o modelo do Amazon Lookout for Vision.
Você pode usar a AWS SDK para visualizar os modelos em execução em todas as regiões da AWS nas quais o Lookout for Vision está disponível. Por exemplo, código, consulte find_running_models.py.
Iniciar seu modelo (console)
O console Amazon Lookout for Vision fornece AWS CLI um comando que você pode usar para iniciar um modelo. Depois que o modelo for iniciado, você poderá começar a detectar anomalias nas imagens. Para obter mais informações, consulte Detectar as anomalias de uma imagem.
Para iniciar um modelo (console)
-
Se você ainda não tiver feito isso, instale e configure a AWS CLI e os SDKs do AWS. Para obter mais informações, consulte Etapa 4: configurar o AWS CLI e AWS SDKs.
Abra o console Amazon Lookout for Vision em https://console.aws.amazon.com/lookoutvision/.
Escolha Como começar.
No painel de navegação à esquerda, escolha Projetos.
Na página de recursos Projetos, selecione o projeto que contém o modelo treinado que você deseja iniciar.
Na seção Modelos, escolha o modelo que deseja iniciar.
Na página de detalhes do modelo, escolha Usar modelo e, em seguida, escolha Integrar API à nuvem.
Em comandos da AWS CLI, copie o comando da AWS CLI que chama start-model
.
No prompt de comando, digite o comando start-model
que você copiou na etapa anterior. Se você estiver usando o perfil lookoutvision
para obter credenciais, adicione o parâmetro --profile lookoutvision-access
.
No console, escolha Modelos na página de navegação à esquerda.
Verifique na coluna Status o status atual do modelo. Quando o status é Hospedado, você pode usar o modelo para detectar anomalias nas imagens. Para obter mais informações, consulte Detectar as anomalias de uma imagem.
Iniciando seu modelo Amazon Lookout for Vision (SDK)
Você inicia um modelo chamando a operação startModel.
Um modelo pode demorar um pouco para começar. Você pode verificar o status atual chamando DescribeModel. Para obter mais informações, consulte Visualizar as modelos.
Para iniciar seu modelo (SDK)
-
Se você ainda não tiver feito isso, instale e configure a AWS CLI e os SDKs do AWS. Para obter mais informações, consulte Etapa 4: configurar o AWS CLI e AWS SDKs.
Use o código de exemplo a seguir para iniciar um modelo.
- CLI
-
Altere os seguintes valores:
project-name
ao nome do projeto que contém o modelo que deseja iniciar.
model-version
para a versão do modelo que deseja iniciar.
--min-inference-units
ao número de unidades de inferência que você deseja usar.
(Opcional) --max-inference-units
até o número máximo de unidades de inferência que o Amazon Lookout for Vision pode usar para escalar automaticamente o modelo.
aws lookoutvision start-model --project-name "project name
"\
--model-version model version
\
--min-inference-units minimum number of units
\
--max-inference-units max number of units
\
--profile lookoutvision-access
- Python
-
Esse código foi retirado do repositório GitHub de exemplos do SDK de AWS documentação. Veja o exemplo completo aqui.
@staticmethod
def start_model(
lookoutvision_client, project_name, model_version, min_inference_units, max_inference_units = None):
"""
Starts the hosting of a Lookout for Vision model.
:param lookoutvision_client: A Boto3 Lookout for Vision client.
:param project_name: The name of the project that contains the version of the
model that you want to start hosting.
:param model_version: The version of the model that you want to start hosting.
:param min_inference_units: The number of inference units to use for hosting.
:param max_inference_units: (Optional) The maximum number of inference units that
Lookout for Vision can use to automatically scale the model.
"""
try:
logger.info(
"Starting model version %s for project %s", model_version, project_name)
if max_inference_units is None:
lookoutvision_client.start_model(
ProjectName = project_name,
ModelVersion = model_version,
MinInferenceUnits = min_inference_units)
else:
lookoutvision_client.start_model(
ProjectName = project_name,
ModelVersion = model_version,
MinInferenceUnits = min_inference_units,
MaxInferenceUnits = max_inference_units)
print("Starting hosting...")
status = ""
finished = False
# Wait until hosted or failed.
while finished is False:
model_description = lookoutvision_client.describe_model(
ProjectName=project_name, ModelVersion=model_version)
status = model_description["ModelDescription"]["Status"]
if status == "STARTING_HOSTING":
logger.info("Host starting in progress...")
time.sleep(10)
continue
if status == "HOSTED":
logger.info("Model is hosted and ready for use.")
finished = True
continue
logger.info("Model hosting failed and the model can't be used.")
finished = True
if status != "HOSTED":
logger.error("Error hosting model: %s", status)
raise Exception(f"Error hosting model: {status}")
except ClientError:
logger.exception("Couldn't host model.")
raise
- Java V2
-
Esse código foi retirado do repositório GitHub de exemplos do SDK de AWS documentação. Veja o exemplo completo aqui.
/**
* Starts hosting an Amazon Lookout for Vision model. Returns when the model has
* started or if hosting fails. You are charged for the amount of time that a
* model is hosted. To stop hosting a model, use the StopModel operation.
*
* @param lfvClient An Amazon Lookout for Vision client.
* @param projectName The name of the project that contains the model that you
* want to host.
* @modelVersion The version of the model that you want to host.
* @minInferenceUnits The number of inference units to use for hosting.
* @maxInferenceUnits The maximum number of inference units that Lookout for
* Vision can use for automatically scaling the model. If the
* value is null, automatic scaling doesn't happen.
* @return ModelDescription The description of the model, which includes the
* model hosting status.
*/
public static ModelDescription startModel(LookoutVisionClient lfvClient, String projectName, String modelVersion,
Integer minInferenceUnits, Integer maxInferenceUnits) throws LookoutVisionException, InterruptedException {
logger.log(Level.INFO, "Starting Model version {0} for project {1}.",
new Object[] { modelVersion, projectName });
StartModelRequest startModelRequest = null;
if (maxInferenceUnits == null) {
startModelRequest = StartModelRequest.builder().projectName(projectName).modelVersion(modelVersion)
.minInferenceUnits(minInferenceUnits).build();
} else {
startModelRequest = StartModelRequest.builder().projectName(projectName).modelVersion(modelVersion)
.minInferenceUnits(minInferenceUnits).maxInferenceUnits(maxInferenceUnits).build();
}
// Start hosting the model.
lfvClient.startModel(startModelRequest);
DescribeModelRequest describeModelRequest = DescribeModelRequest.builder().projectName(projectName)
.modelVersion(modelVersion).build();
ModelDescription modelDescription = null;
boolean finished = false;
// Wait until model is hosted or failure occurs.
do {
modelDescription = lfvClient.describeModel(describeModelRequest).modelDescription();
switch (modelDescription.status()) {
case HOSTED:
logger.log(Level.INFO, "Model version {0} for project {1} is running.",
new Object[] { modelVersion, projectName });
finished = true;
break;
case STARTING_HOSTING:
logger.log(Level.INFO, "Model version {0} for project {1} is starting.",
new Object[] { modelVersion, projectName });
TimeUnit.SECONDS.sleep(60);
break;
case HOSTING_FAILED:
logger.log(Level.SEVERE, "Hosting failed for model version {0} for project {1}.",
new Object[] { modelVersion, projectName });
finished = true;
break;
default:
logger.log(Level.SEVERE, "Unexpected error when hosting model version {0} for project {1}: {2}.",
new Object[] { projectName, modelVersion, modelDescription.status() });
finished = true;
break;
}
} while (!finished);
logger.log(Level.INFO, "Finished starting model version {0} for project {1} status: {2}",
new Object[] { modelVersion, projectName, modelDescription.statusMessage() });
return modelDescription;
}
Se a saída do código for Model is hosted and ready for use
, você poderá usar o modelo para detectar anomalias nas imagens. Para obter mais informações, consulte Detectar as anomalias de uma imagem.