Starten Sie Ihr Amazon Lookout for Vision Vision-Modell - Amazon Lookout für Vision

Hinweis zum Ende des Supports: Am 31. Oktober 2025 AWS wird der Support für Amazon Lookout for Vision eingestellt. Nach dem 31. Oktober 2025 können Sie nicht mehr auf die Lookout for Vision Vision-Konsole oder die Lookout for Vision Vision-Ressourcen zugreifen. Weitere Informationen finden Sie in diesem Blogbeitrag.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Starten Sie Ihr Amazon Lookout for Vision Vision-Modell

Bevor Sie ein Amazon Lookout for Vision Vision-Modell zur Erkennung von Anomalien verwenden können, müssen Sie das Modell zunächst starten. Sie starten ein Modell, indem Sie die StartModelAPI aufrufen und Folgendes übergeben:

  • ProjectName— Der Name des Projekts, das das Modell enthält, das Sie starten möchten.

  • ModelVersion— Die Version des Modells, das Sie starten möchten.

  • MinInferenceUnits— Die Mindestanzahl von Inferenzeinheiten. Weitere Informationen finden Sie unter Inferenzeinheiten.

  • (Optional) MaxInferenceUnits— Die maximale Anzahl von Inferenzeinheiten, die Amazon Lookout for Vision verwenden kann, um das Modell automatisch zu skalieren. Weitere Informationen finden Sie unter Automatische Skalierung von Inferenzeinheiten.

Die Amazon Lookout for Vision Vision-Konsole bietet Beispielcode, mit dem Sie ein Modell starten und stoppen können.

Anmerkung

Ihnen wird die Zeit in Rechnung gestellt, in der Ihr Modell läuft. Informationen zum Stoppen eines laufenden Modells finden Sie unterIhr Amazon Lookout for Vision Vision-Modell beenden.

Sie können das AWS SDK verwenden, um laufende Modelle in allen AWS Regionen anzuzeigen, in denen Lookout for Vision verfügbar ist. Beispielcode finden Sie unter find_running_models.py.

Starten Sie Ihr Modell (Konsole)

Die Amazon Lookout for Vision Vision-Konsole bietet einen AWS CLI Befehl, mit dem Sie ein Modell starten können. Nach dem Start des Modells können Sie beginnen, Anomalien in Bildern zu erkennen. Weitere Informationen finden Sie unter Erkennung von Anomalien in einem Bild.

Um ein Modell zu starten (Konsole)
  1. Falls Sie dies noch nicht getan haben, installieren und konfigurieren Sie die AWS CLI und die AWS SDKs. Weitere Informationen finden Sie unter Schritt 4: Richten Sie das ein AWS CLI and AWS SDKs.

  2. Öffnen Sie die Amazon Lookout for Vision Vision-Konsole unter https://console.aws.amazon.com/lookoutvision/.

  3. Wählen Sie Get started (Erste Schritte) aus.

  4. Wählen Sie im linken Navigationsbereich Projekte aus.

  5. Wählen Sie auf der Seite Projektressourcen das Projekt aus, das das trainierte Modell enthält, mit dem Sie beginnen möchten.

  6. Wählen Sie im Abschnitt Modelle das Modell aus, mit dem Sie beginnen möchten.

  7. Wählen Sie auf der Detailseite des Modells die Option Modell verwenden und dann API in die Cloud integrieren aus.

    Tipp

    Wenn Sie Ihr Modell auf einem Edge-Gerät bereitstellen möchten, wählen Sie Create model packaging job aus. Weitere Informationen finden Sie unter Verpacken Ihres Amazon Lookout for Vision Vision-Modells.

  8. Kopieren Sie unter AWS-CLI-Befehle den AWS CLI-Befehl, der aufgerufen wirdstart-model.

  9. Geben Sie in der Befehlszeile den start-model Befehl ein, den Sie im vorherigen Schritt kopiert haben. Wenn Sie das lookoutvision Profil zum Abrufen von Anmeldeinformationen verwenden, fügen Sie den --profile lookoutvision-access Parameter hinzu.

  10. Wählen Sie in der Konsole auf der linken Navigationsseite Modelle aus.

  11. In der Spalte Status finden Sie den aktuellen Status des Modells. Wenn der Status Gehostet lautet, können Sie das Modell verwenden, um Anomalien in Bildern zu erkennen. Weitere Informationen finden Sie unter Erkennung von Anomalien in einem Bild.

Starten Sie Ihr Amazon Lookout for Vision Vision-Modell (SDK)

Sie starten ein Modell, indem Sie die StartModelOperation aufrufen.

Es kann eine Weile dauern, bis ein Modell gestartet wird. Sie können den aktuellen Status überprüfen, indem Sie anrufen DescribeModel. Weitere Informationen finden Sie unter Deine Modelle ansehen.

Um Ihr Modell (SDK) zu starten
  1. Falls Sie dies noch nicht getan haben, installieren und konfigurieren Sie die AWS CLI und die AWS SDKs. Weitere Informationen finden Sie unter Schritt 4: Richten Sie das ein AWS CLI and AWS SDKs.

  2. Verwenden Sie den folgenden Beispielcode, um ein Modell zu starten.

    CLI

    Ändern Sie die folgenden Werte:

    • project-namein den Namen des Projekts, das das Modell enthält, mit dem Sie beginnen möchten.

    • model-versionzu der Version des Modells, das Sie starten möchten.

    • --min-inference-unitsauf die Anzahl der Inferenzeinheiten, die Sie verwenden möchten.

    • (Optional) --max-inference-units auf die maximale Anzahl von Inferenzeinheiten, die Amazon Lookout for Vision verwenden kann, um das Modell automatisch zu skalieren.

    aws lookoutvision start-model --project-name "project name"\ --model-version model version\ --min-inference-units minimum number of units\ --max-inference-units max number of units \ --profile lookoutvision-access
    Python

    Dieser Code stammt aus dem AWS Documentation SDK Examples GitHub Repository. Das vollständige Beispiel finden Sie hier.

    @staticmethod def start_model( lookoutvision_client, project_name, model_version, min_inference_units, max_inference_units = None): """ Starts the hosting of a Lookout for Vision model. :param lookoutvision_client: A Boto3 Lookout for Vision client. :param project_name: The name of the project that contains the version of the model that you want to start hosting. :param model_version: The version of the model that you want to start hosting. :param min_inference_units: The number of inference units to use for hosting. :param max_inference_units: (Optional) The maximum number of inference units that Lookout for Vision can use to automatically scale the model. """ try: logger.info( "Starting model version %s for project %s", model_version, project_name) if max_inference_units is None: lookoutvision_client.start_model( ProjectName = project_name, ModelVersion = model_version, MinInferenceUnits = min_inference_units) else: lookoutvision_client.start_model( ProjectName = project_name, ModelVersion = model_version, MinInferenceUnits = min_inference_units, MaxInferenceUnits = max_inference_units) print("Starting hosting...") status = "" finished = False # Wait until hosted or failed. while finished is False: model_description = lookoutvision_client.describe_model( ProjectName=project_name, ModelVersion=model_version) status = model_description["ModelDescription"]["Status"] if status == "STARTING_HOSTING": logger.info("Host starting in progress...") time.sleep(10) continue if status == "HOSTED": logger.info("Model is hosted and ready for use.") finished = True continue logger.info("Model hosting failed and the model can't be used.") finished = True if status != "HOSTED": logger.error("Error hosting model: %s", status) raise Exception(f"Error hosting model: {status}") except ClientError: logger.exception("Couldn't host model.") raise
    Java V2

    Dieser Code stammt aus dem AWS Documentation SDK Examples GitHub Repository. Das vollständige Beispiel finden Sie hier.

    /** * Starts hosting an Amazon Lookout for Vision model. Returns when the model has * started or if hosting fails. You are charged for the amount of time that a * model is hosted. To stop hosting a model, use the StopModel operation. * * @param lfvClient An Amazon Lookout for Vision client. * @param projectName The name of the project that contains the model that you * want to host. * @modelVersion The version of the model that you want to host. * @minInferenceUnits The number of inference units to use for hosting. * @maxInferenceUnits The maximum number of inference units that Lookout for * Vision can use for automatically scaling the model. If the * value is null, automatic scaling doesn't happen. * @return ModelDescription The description of the model, which includes the * model hosting status. */ public static ModelDescription startModel(LookoutVisionClient lfvClient, String projectName, String modelVersion, Integer minInferenceUnits, Integer maxInferenceUnits) throws LookoutVisionException, InterruptedException { logger.log(Level.INFO, "Starting Model version {0} for project {1}.", new Object[] { modelVersion, projectName }); StartModelRequest startModelRequest = null; if (maxInferenceUnits == null) { startModelRequest = StartModelRequest.builder().projectName(projectName).modelVersion(modelVersion) .minInferenceUnits(minInferenceUnits).build(); } else { startModelRequest = StartModelRequest.builder().projectName(projectName).modelVersion(modelVersion) .minInferenceUnits(minInferenceUnits).maxInferenceUnits(maxInferenceUnits).build(); } // Start hosting the model. lfvClient.startModel(startModelRequest); DescribeModelRequest describeModelRequest = DescribeModelRequest.builder().projectName(projectName) .modelVersion(modelVersion).build(); ModelDescription modelDescription = null; boolean finished = false; // Wait until model is hosted or failure occurs. do { modelDescription = lfvClient.describeModel(describeModelRequest).modelDescription(); switch (modelDescription.status()) { case HOSTED: logger.log(Level.INFO, "Model version {0} for project {1} is running.", new Object[] { modelVersion, projectName }); finished = true; break; case STARTING_HOSTING: logger.log(Level.INFO, "Model version {0} for project {1} is starting.", new Object[] { modelVersion, projectName }); TimeUnit.SECONDS.sleep(60); break; case HOSTING_FAILED: logger.log(Level.SEVERE, "Hosting failed for model version {0} for project {1}.", new Object[] { modelVersion, projectName }); finished = true; break; default: logger.log(Level.SEVERE, "Unexpected error when hosting model version {0} for project {1}: {2}.", new Object[] { projectName, modelVersion, modelDescription.status() }); finished = true; break; } } while (!finished); logger.log(Level.INFO, "Finished starting model version {0} for project {1} status: {2}", new Object[] { modelVersion, projectName, modelDescription.statusMessage() }); return modelDescription; }
  3. Wenn die Ausgabe des Codes istModel is hosted and ready for use, können Sie das Modell verwenden, um Anomalien in Bildern zu erkennen. Weitere Informationen finden Sie unter Erkennung von Anomalien in einem Bild.