Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Pianificazione delle attività di monitoraggio

Modalità Focus
Pianificazione delle attività di monitoraggio - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Amazon SageMaker Model Monitor ti offre la possibilità di monitorare i dati raccolti dagli endpoint in tempo reale. Puoi monitorare i tuoi dati in base a una pianificazione ricorrente oppure puoi monitorarli una tantum, immediatamente. Puoi creare una pianificazione di monitoraggio con l'API CreateMonitoringSchedule.

Con una pianificazione di monitoraggio, l' SageMaker intelligenza artificiale può iniziare a elaborare i lavori per analizzare i dati raccolti durante un determinato periodo. Nel processo di elaborazione, l' SageMaker intelligenza artificiale confronta il set di dati per l'analisi corrente con le statistiche e i vincoli di base forniti dall'utente. Quindi, l' SageMaker IA genera un rapporto sulle violazioni. Inoltre, vengono emesse CloudWatch metriche per ogni funzionalità oggetto di analisi.

SageMaker L'intelligenza artificiale fornisce un contenitore predefinito per eseguire analisi su set di dati tabulari. In alternativa, puoi scegliere di portare il tuo container come descritto nell'argomento Support per i tuoi contenitori con Amazon SageMaker Model Monitor.

È possibile creare un modello di pianificazione di monitoraggio per il processo di trasformazione di batch o degli endpoint in tempo reale. Utilizza le risorse della linea di base (vincoli e statistiche) da confrontare con il traffico in tempo reale.

Esempio assegnazioni linea di base

Nell'esempio seguente, il set di dati di addestramento utilizzato per addestrare il modello è stato caricato su Amazon S3. Se è già presente in Amazon S3, è possibile puntare direttamente a esso.

# copy over the training dataset to Amazon S3 (if you already have it in Amazon S3, you could reuse it) baseline_prefix = prefix + '/baselining' baseline_data_prefix = baseline_prefix + '/data' baseline_results_prefix = baseline_prefix + '/results' baseline_data_uri = 's3://{}/{}'.format(bucket,baseline_data_prefix) baseline_results_uri = 's3://{}/{}'.format(bucket, baseline_results_prefix) print('Baseline data uri: {}'.format(baseline_data_uri)) print('Baseline results uri: {}'.format(baseline_results_uri))
training_data_file = open("test_data/training-dataset-with-header.csv", 'rb') s3_key = os.path.join(baseline_prefix, 'data', 'training-dataset-with-header.csv') boto3.Session().resource('s3').Bucket(bucket).Object(s3_key).upload_fileobj(training_data_file)
Esempio pianificazione di analisi ricorrenti

Se stai pianificando un monitoraggio di modello per l'endpoint in tempo reale, utilizza i vincoli e le statistiche della linea di base da confrontare con il traffico in tempo reale. Il seguente frammento di codice mostra il formato generale utilizzato per pianificare un monitoraggio di modello per un endpoint in tempo reale. Questo esempio pianifica il monitoraggio del modello in modo che venga eseguito ogni ora.

from sagemaker.model_monitor import CronExpressionGenerator from time import gmtime, strftime mon_schedule_name = 'my-model-monitor-schedule-' + strftime("%Y-%m-%d-%H-%M-%S", gmtime()) my_default_monitor.create_monitoring_schedule( monitor_schedule_name=mon_schedule_name, endpoint_input=EndpointInput( endpoint_name=endpoint_name, destination="/opt/ml/processing/input/endpoint" ), post_analytics_processor_script=s3_code_postprocessor_uri, output_s3_uri=s3_report_path, statistics=my_default_monitor.baseline_statistics(), constraints=my_default_monitor.suggested_constraints(), schedule_cron_expression=CronExpressionGenerator.hourly(), enable_cloudwatch_metrics=True, )
Esempio pianificazione di analisi una tantum

È inoltre possibile pianificare l'esecuzione di una singola analisi senza ripetizioni, passando al metodo create_monitoring_schedule argomenti come i seguenti:

schedule_cron_expression=CronExpressionGenerator.now(), data_analysis_start_time="-PT1H", data_analysis_end_time="-PT0H",

In questi argomenti, il parametro schedule_cron_expression pianifica l'esecuzione dell'analisi una tantum, immediatamente, con il valore CronExpressionGenerator.now(). Per qualsiasi pianificazione con questa impostazione, i parametri data_analysis_start_time e data_analysis_end_time sono necessari. Questi parametri impostano l'ora di inizio e l'ora di fine di una finestra di analisi. Definite questi orari come offset relativi all'ora corrente e utilizzate il formato di durata ISO 8601. In questo esempio, gli orari -PT1H e -PT0H definiscono una finestra tra un'ora nel passato e l'ora corrente. Con questa pianificazione, l'analisi valuta solo i dati raccolti durante la finestra specificata.

Esempio pianificazione per un processo di trasformazione di batch

Il seguente frammento di codice mostra il formato generale utilizzato per pianificare un monitoraggio dei modelli per un processo di trasformazione di batch.

from sagemaker.model_monitor import ( CronExpressionGenerator, BatchTransformInput, MonitoringDatasetFormat, ) from time import gmtime, strftime mon_schedule_name = 'my-model-monitor-schedule-' + strftime("%Y-%m-%d-%H-%M-%S", gmtime()) my_default_monitor.create_monitoring_schedule( monitor_schedule_name=mon_schedule_name, batch_transform_input=BatchTransformInput( destination="opt/ml/processing/input", data_captured_destination_s3_uri=s3_capture_upload_path, dataset_format=MonitoringDatasetFormat.csv(header=False), ), post_analytics_processor_script=s3_code_postprocessor_uri, output_s3_uri=s3_report_path, statistics=my_default_monitor.baseline_statistics(), constraints=my_default_monitor.suggested_constraints(), schedule_cron_expression=CronExpressionGenerator.hourly(), enable_cloudwatch_metrics=True, )
desc_schedule_result = my_default_monitor.describe_schedule() print('Schedule status: {}'.format(desc_schedule_result['MonitoringScheduleStatus']))
PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.